Erlaub bitte das Javascript zur Benutzung des Wörterbuches!
Markov chain [Markov chains]▼(probability theory)noun[UK: mˈɑːkɒv tʃˈeɪn] [US: mˈɑːrkɑːv tʃˈeɪn]
↑