définitions
organicisme (n.m.)
1.(philosophie)théorie selon laquelle la vie résulte de l'organisation des différents organes et non des organes eux-mêmes.
2.(médecine)théorie qui rattache toute maladie à la lésion d'un organe.
3.(médecine)Doctrine médicale selon laquelle toutes les maladies ont pour causes des lésions organiques.
Le Littré (1880)
ORGANICISME (s. m.)[or-ga-ni-si-sm']
Théorie médicale qui s'efforce de rattacher toute maladie à une lésion matérielle d'un organe.
ÉTYMOLOGIE
Organique.