Végétarisme
Définition - Qu'est-ce que le végétarisme ? Le terme végétarisme est aujourd'hui utilisé pour décrire une variété de régimes alimentaires qui ont en commun de ne pas consommer de produits à base de viande et de poisson. Le terme est dérivé du latin « vegetus », qui signifie vivant, frais ou vif. Dans un sens plus large, le terme végétarisme décrit un mode de vie… Végétarisme