El western es un género cinematográfico típico del cine estadounidense que se ambienta en el viejo Oeste estadounidense. La palabra western, originariamente un adjetivo derivado de west (oeste, en inglés), se sustantivó para hacer referencia fundamentalmente a obras cinematográficas, aunque también existen en la literatura.