Een stochastisch proces heeft de Markov-eigenschap indien het verloop van het proces voor volledig bepaald wordt door . Dat wil zeggen dat geen extra informatie over verkregen wordt door naast ook nog te kennen wanneer s < t.
De waarde van is de toestand van het Markov-proces op tijdstip t. Als we t identificeren met ``heden'' dan wil de Markov-eigenschap zeggen dat alle informatie van het systeem over het gedrag in de ``toekomst'' gegeven wordt door de huidige toestand en dat kennis van het proces uit het ``verleden'' hier niets aan toevoegt.
De Markov-eigenschap impliceert dat de verblijftijd in een gegeven toestand een ``geheugenloze'' verdeling moet hebben.
Een Markov-proces is nu, per definitie, een stochastisch proces dat aan de Markov-eigenschap voldoet. Een Markov-proces wordt ook wel Markov-keten genoemd indien de toestandsruimte discreet is, d.w.z. kan alleen waarden aannemen in een aftelbare verzameling. In de gevallen die wij bestuderen is de toestandsruimte steeds de discrete verzameling of een eindige deelverzameling daarvan.
Afhankelijk van de waarden die de tijd-parameter kan aannemen spreken we van een continue-tijd Markov-keten of een discrete-tijd Markov-keten. Bij een continue-tijd Markov-keten is t een continue variabele, meestal met waarden in het interval . Bij een discrete-tijd Markov-proces is t een discrete variabele, meestal met waarden uit de verzameling .
Conceptueel is een discrete-tijd Markov-proces nog het meest eenvoudige. Voordat we daarmee beginnen, eerst nog een korte herhaling van matrixrekening, omdat daarmee zo compact de waarschijnlijkheidsanalyse van Markov-ketens beschreven kan worden.