Englisch-Deutsch Wörterbuch »

west germany bedeutet auf Deutsch

EnglischDeutsch
West Germany noun
[UK: west ˈdʒɜː.mə.ni]
[US: ˈwest ˈdʒɝː.mə.ni]

das Westdeutschland◼◼◼Substantiv
[ˈvɛstˌdɔɪ̯ʧlant]