Accueil > langue française > dictionnaire > dermatologie n.f.

dermatologie

nom féminin

  • Partie de la médecine qui étudie et soigne les maladies de la peau, des phanères (cheveux, ongles) et des muqueuses.