viernes, 10 de diciembre de 2010

QUE SON CIENCIAS DE LA TIERRA

Las Ciencias de la Tierra o Geociencias son el conjunto de las disciplinas que estudian la estructura interna, la morfología y la dinámica superficial y la evolución del planeta Tierra. Constituye un caso particular de las ciencias planetarias que se ocupa en general del estudio de los planetas del Sistema Solar

No hay comentarios:

Publicar un comentario