Os sindicatos são organizações que representam os interesses dos trabalhadores, criadas para equilibrar o poder desigual e reconhecidamente conflituoso entre capital e trabalho. Surgiram na primeira metade do século XIX como uma reação às precárias condições de trabalho e remuneração impostas pelo capitalismo. Ao final do século XIX, os sindicatos obtiveram reconhecimento institucional nos principais países industrializados.
Desde então, têm desempenhado um papel fundamental na organização da classe trabalhadora, lutando por uma sociedade justa e democrática e pressionando pela ampliação dos direitos individuais e coletivos, que ainda são limitados em muitos países, incluindo o Brasil.