rechercher :

définitions

organicisme (n.m.)

1.(philosophie)théorie selon laquelle la vie résulte de l'organisation des différents organes et non des organes eux-mêmes.

2.(médecine)théorie qui rattache toute maladie à la lésion d'un organe.

3.(médecine)Doctrine médicale selon laquelle toutes les maladies ont pour causes des lésions organiques.

Le Littré (1880)

ORGANICISME (s. m.)[or-ga-ni-si-sm']

Théorie médicale qui s'efforce de rattacher toute maladie à une lésion matérielle d'un organe.

ÉTYMOLOGIE

Organique.