Actualités
Vous êtes ici :

Droit du
travail

Le droit du travail est l’ensemble des règles législatives qui régissent les relations entre les employeurs et les salariés.
Le droit du travail défini les droits et les obligations entre les employeurs et les salariés du secteur privé, en regroupant l'ensemble des règles juridiques qui régissent la vie en entreprise, de l'embauche, en passant par l'exécution du contrat de travail jusqu'à sa rupture.

Le droit du travail c'est aussi :
  • Contrat de travail (rédaction, exécution, rupture)
  • Licenciement (amiable, économique...)
  • Rupture conventionnelle
  • Harcèlement
  • Démission
  • Congés / Absences
  • Formation / Évolution professionnelle
  • Relations collectives