Qu’appelle-t-on l’ergonomie au travail ? Selon la définition du dictionnaire, l’ergonomie est l’étude scientifique sur la relation entre l’Homme et ses outils de travail. Ceux-ci comprennent le lieu de travail, les méthodes et les moyens mis à disposition. Ces éléments se doivent de faire bénéficier à l’individu de confort, sécurité et d’efficacité. Nous allons aborder...