Direito do trabalho é o ramo jurídico que estuda as relações de trabalho. Esse direito é composto de conjuntos de normas, princípios e outras fontes jurídicas que regem as relações de trabalho, regulamentando a condição jurídica dos trabalhadores.
Surge como autêntica expressão do humanismo jurídico e instrumento de renovação social. Constitui atitude de intervenção jurídica em busca de um melhor relacionamento entre o homem que trabalha e aqueles para os quais o trabalho se destina. Visa também a estabelecer uma plataforma de direitos básicos. Portanto, a definição de direito do trabalho é o conjunto de normas e princípios que regulamentam o relacionamento entre empregado e empregadores.
Pode ser conceituado também segundo Hernainz Marques, professor de direito do trabalho, como “Conjunto de normas jurídicas que regulam as relações de trabalho, sua preparação, desenvolvimento, consequências e instituições complementares dos elementos pessoais que nelas intervêm.” Não é apenas o conjunto de leis, mas de normas jurídicas, entre as quais os contratos coletivos, e não regula apenas as relações entre empregados e empregadores num contrato de trabalho, mas vai desde a sua preparação com a aprendizagem até as consequências complementares, como por exemplo a organização profissional.
Quem tem direito? O vigilante, guarda ou vigia, que exerce seu trabalho, com ou sem o uso de arma de…
Quando posso sacar o FGTS? Com a pandemia de COVID-19, muitas pessoas têm dúvida sobre a possibilidade de sacar o…