Définition de l’accident de travail
Il s’agit d’un événement intervenu dans le cadre du travail et qui cause un dommage corporel ou mental. Généralement, l’accident de travail, s’il est reconnu par l’employeur et l’organisme social, donne droit à des indemnités en vertu de lois protectrices.