organicisme
(Mot repris de organicismes)ORGANICISME
(or-ga-ni-si-sm') s. m.Théorie médicale qui s'efforce de rattacher toute maladie à une lésion matérielle d'un organe.
ÉTYMOLOGIE
- Organique.
Émile Littré's Dictionnaire de la langue française © 1872-1877