De volgende definities zijn er voor het woord western
- een film die speelt in het Wilde Westen, de westelijke staten van de VS in de 19e eeuw Sinds de jaren 1980 worden er niet zo veel westerns meer gemaakt. ▸ Het leek op een decor van een western.[2] (bron: WikiWoordenboek)
Voeg een definitie toe.