Droit du travail (employeur)

En France, le droit du travail est une branche du droit social qui régit les relations nées d'un contrat de travail entre les employeurs et les salariés. Le droit du travail a pour objet d'encadrer la relation de subordination qui lie salarié et employeur, et de limiter le déséquilibre entre les parties au contrat de travail.

Le droit du travail est une matière complexe, étendue et très évolutive, qui peut être rapidement la cause de pertes élevées si elle est pratiquée sans l’expertise requise.

Vous ne connaissez pas la législation? Suite
Blog avocat