Diccionario Español
|
naturalismo
Indice General
|
Diccionario Español
Página 1 de 1
|
naturalismo. m. Doctrina filosófica que considera a la naturaleza y a todos sus elementos como la única realidad existente. || Movimiento literario que surge en Francia en la segunda mitad del siglo XIX y que, partiendo del realismo, trataba de reproducir la realidad objetivamente, especialmente los aspectos más desagradables. || Tendencia artística que representa la realidad alejándose del idealismo y del simbolismo.
|
|
|
|
|