Droit du travail (employeur) - Articles

En France, le droit du travail est une branche du droit social qui régit les relations nées d'un contrat de travail entre les employeurs et les salariés. Le droit du travail a pour objet d'encadrer la relation de subordination qui lie salarié et employeur, et de limiter le déséquilibre entre les parties au contrat de travail.

Le droit du travail est une matière complexe, étendue et très évolutive, qui peut être rapidement la cause de pertes élevées si elle est pratiquée sans l’expertise requise.


Indemnités licenciements
Licenciement économique
Licenciement faute grave
Discrimination liée à l'embauche
Harcèlement sexuel
Harcèlement moral
Travail illégal


Vous ne connaissez pas la législation? Suite
Blog avocat