Qu’est-ce que la santé au travail ?

La santé au travail vise à promouvoir et à protéger la santé et le bien-être des travailleurs sur leur lieu de travail. Il aborde les aspects physiques, mentaux et sociaux des risques liés au travail, vise à prévenir les maladies et les blessures et garantit un environnement de travail sain et sûr. Les professionnels de la santé au travail travaillent en étroite collaboration avec les employeurs, les employés et d'autres parties prenantes pour identifier et gérer les risques, développer des programmes de promotion de la santé et se conformer aux lois et réglementations en vigueur.