land art

nom masculin

(américain land art)

Définitions de land art


  • Tendance de l'art contemporain apparue aux États-Unis vers 1967 et caractérisée par un travail dans et sur la nature.