Que signifie le métier d’infirmière ?

La profession infirmière implique de prendre soin des individus, des familles et des communautés afin de promouvoir la santé, de prévenir les maladies et de fournir soutien et réconfort en période de maladie ou de handicap. Les infirmières prodiguent des soins directs aux patients, sensibilisent les individus à la santé et au bien-être et collaborent avec d'autres professionnels de la santé pour garantir des soins complets et holistiques. La profession met l'accent sur la compassion, la défense des droits et les soins centrés sur le patient.