Para otros usos del término, véase Naturismo (desambiguación). El Naturismo es la doctrina que preconiza el empleo de los agentes naturales para la conservación de la salud y el tratamiento de las enfermedades. La expresión "naturismo" ha sido tradicionalmente usada en este sentido por los "médicos naturistas" durante el último siglo. Por ejemplo, el Dr.