organicisme

(Mot repris de organicismes)

ORGANICISME

(or-ga-ni-si-sm') s. m.
Théorie médicale qui s'efforce de rattacher toute maladie à une lésion matérielle d'un organe.

ÉTYMOLOGIE

  • Organique.