Εισαγωγή στις αλυσίδες Markov με παραδείγματα - Αλυσίδες Markov με Python



Αυτό το άρθρο σχετικά με την εισαγωγή στο Markov Chains θα σας βοηθήσει να κατανοήσετε τη βασική ιδέα πίσω από τις αλυσίδες Markov και πώς μπορούν να μοντελοποιηθούν χρησιμοποιώντας το Python.

Εισαγωγή στις αλυσίδες Markov:

Αναρωτηθήκατε ποτέ πώς ταξινομεί η Google τις ιστοσελίδες; Εάν έχετε κάνει την έρευνά σας, τότε πρέπει να γνωρίζετε ότι χρησιμοποιεί τον Αλγόριθμο PageRank που βασίζεται στην ιδέα των αλυσίδων Markov. Αυτό το άρθρο σχετικά με την εισαγωγή στο Markov Chains θα σας βοηθήσει να κατανοήσετε τη βασική ιδέα πίσω από τις αλυσίδες Markov και πώς μπορούν να μοντελοποιηθούν ως λύση σε πραγματικά προβλήματα.

Ακολουθεί μια λίστα θεμάτων που θα καλυφθούν σε αυτό το ιστολόγιο:





  1. Τι είναι μια αλυσίδα Markov;
  2. Τι είναι η ιδιοκτησία The Markov;
  3. Κατανόηση των αλυσίδων Markov με ένα παράδειγμα
  4. Τι είναι ένας πίνακας μετάβασης;
  5. Αλυσίδα Markov στο Python
  6. Εφαρμογές αλυσίδας Markov

Για να αποκτήσετε σε βάθος γνώσεις σχετικά με την Επιστήμη των Δεδομένων και τη Μηχανική Μάθηση χρησιμοποιώντας το Python, μπορείτε να εγγραφείτε ζωντανά από την Edureka με 24ωρη υποστήριξη και πρόσβαση σε όλη τη διάρκεια ζωής.

Τι είναι μια αλυσίδα Markov;

Ο Andrey Markov εισήγαγε για πρώτη φορά τις αλυσίδες Markov το έτος 1906. Εξήγησε τις αλυσίδες Markov ως:



Μια στοχαστική διαδικασία που περιέχει τυχαίες μεταβλητές, μετάβαση από τη μία κατάσταση στην άλλη ανάλογα με ορισμένες παραδοχές και ορισμένους πιθανοτικούς κανόνες.

Αυτά τυχαία μεταβλητές μετάβαση από το ένα στο άλλο στο άλλο, με βάση μια σημαντική μαθηματική ιδιότητα που ονομάζεται Ακίνητα Markov.

Αυτό μας φέρνει στο ερώτημα:



Τι είναι η ιδιοκτησία The Markov;

Η ιδιότητα Discrete Time Markov δηλώνει ότι η υπολογιζόμενη πιθανότητα μιας τυχαίας διαδικασίας μετάβασης στην επόμενη πιθανή κατάσταση εξαρτάται μόνο από την τρέχουσα κατάσταση και τον χρόνο και είναι ανεξάρτητη από τη σειρά καταστάσεων που προηγήθηκαν.

Το γεγονός ότι η επόμενη πιθανή ενέργεια / κατάσταση μιας τυχαίας διαδικασίας δεν εξαρτάται από την ακολουθία των προηγούμενων καταστάσεων, καθιστά τις αλυσίδες Markov ως διαδικασία χωρίς μνήμη που εξαρτάται αποκλειστικά από την τρέχουσα κατάσταση / ενέργεια μιας μεταβλητής.

Ας το αντλήσουμε μαθηματικά:

Αφήστε την τυχαία διαδικασία να είναι, {Xm, m = 0,1,2, ⋯}.

Αυτή η διαδικασία είναι μια αλυσίδα Markov μόνο εάν,

Τύπος Markov Chain - Εισαγωγή στις αλυσίδες Markov - Edureka

Markov Chain - Εισαγωγή στις αλυσίδες Markov - Edureka

για όλα τα m, j, i, i0, i1, ⋯ im & minus1

Για έναν πεπερασμένο αριθμό καταστάσεων, S = {0, 1, 2, ⋯, r}, αυτό ονομάζεται πεπερασμένη αλυσίδα Markov.

P (Xm + 1 = j | Xm = i) εδώ αντιπροσωπεύει τις πιθανότητες μετάβασης σε μετάβαση από τη μία κατάσταση στην άλλη. Εδώ, υποθέτουμε ότι οι πιθανότητες μετάβασης είναι ανεξάρτητες από το χρόνο.

Αυτό σημαίνει ότι το P (Xm + 1 = j | Xm = i) δεν εξαρτάται από την τιμή του «m». Επομένως, μπορούμε να συνοψίσουμε,

Τύπος Markov Chain - Εισαγωγή στις αλυσίδες Markov - Edureka

javascript alert login για λήψη

Έτσι, αυτή η εξίσωση αντιπροσωπεύει την αλυσίδα Markov.

Ας καταλάβουμε τι ακριβώς είναι οι αλυσίδες Markov με ένα παράδειγμα.

Παράδειγμα αλυσίδας Markov

Προτού σας δώσω ένα παράδειγμα, ας καθορίσουμε τι είναι ένα μοντέλο Markov:

Τι είναι ένα μοντέλο Markov;

Ένα μοντέλο Markov είναι ένα στοχαστικό μοντέλο που μοντελοποιεί τυχαίες μεταβλητές με τέτοιο τρόπο ώστε οι μεταβλητές να ακολουθούν την ιδιότητα Markov.

Ας καταλάβουμε πώς λειτουργεί ένα μοντέλο Markov με ένα απλό παράδειγμα.

Όπως αναφέρθηκε προηγουμένως, οι αλυσίδες Markov χρησιμοποιούνται σε εφαρμογές δημιουργίας κειμένου και αυτόματης συμπλήρωσης. Για αυτό το παράδειγμα, θα ρίξουμε μια ματιά σε ένα παράδειγμα (τυχαία) πρόταση και θα δούμε πώς μπορεί να μοντελοποιηθεί χρησιμοποιώντας αλυσίδες Markov.

Παράδειγμα Markov Chain - Εισαγωγή στις αλυσίδες Markov - Edureka

Η παραπάνω πρόταση είναι το παράδειγμά μας, ξέρω ότι δεν έχει πολύ νόημα (δεν χρειάζεται), είναι μια πρόταση που περιέχει τυχαίες λέξεις, όπου:

  1. Κλειδιά δηλώστε τις μοναδικές λέξεις στην πρόταση, δηλαδή 5 πλήκτρα (ένα, δύο, χαλάζι, χαρούμενο, edureka)

  2. Διακριτικά δηλώνει τον συνολικό αριθμό λέξεων, δηλαδή 8 μάρκες.

Προχωρώντας μπροστά, πρέπει να κατανοήσουμε τη συχνότητα εμφάνισης αυτών των λέξεων, το παρακάτω διάγραμμα δείχνει κάθε λέξη μαζί με έναν αριθμό που υποδηλώνει τη συχνότητα αυτής της λέξης.

Πλήκτρα και συχνότητες - Εισαγωγή στις αλυσίδες Markov - Edureka

Έτσι, η αριστερή στήλη εδώ δηλώνει τα πλήκτρα και η δεξιά στήλη υποδηλώνει τις συχνότητες.

Από τον παραπάνω πίνακα, μπορούμε να συμπεράνουμε ότι το κλειδί «edureka» εμφανίζεται 4 φορές περισσότερο από οποιοδήποτε άλλο κλειδί. Είναι σημαντικό να συναγάγουμε τέτοιες πληροφορίες, διότι μπορεί να μας βοηθήσει να προβλέψουμε ποια λέξη μπορεί να συμβεί σε μια συγκεκριμένη χρονική στιγμή. Αν επρόκειτο να μαντέψω για την επόμενη λέξη στο παράδειγμα, θα πήγαινα με το «edureka», καθώς έχει την υψηλότερη πιθανότητα εμφάνισης.

Μιλώντας για πιθανότητες, ένα άλλο μέτρο που πρέπει να γνωρίζετε είναι σταθμισμένες διανομές.

Στην περίπτωσή μας, η σταθμισμένη κατανομή για το «edureka» είναι 50% (4/8) επειδή η συχνότητά της είναι 4, από τα συνολικά 8 μάρκες. Τα υπόλοιπα πλήκτρα (ένα, δύο, χαλάζι, χαρούμενα) έχουν όλα 1 / 8η πιθανότητα να συμβούν (& asymp 13%).

Τώρα που έχουμε κατανοήσει τη σταθμισμένη κατανομή και μια ιδέα για το πώς εμφανίζονται συγκεκριμένες λέξεις πιο συχνά από άλλες, μπορούμε να προχωρήσουμε με το επόμενο μέρος.

Κατανόηση των αλυσίδων Markov - Εισαγωγή στις αλυσίδες Markov - Edureka

συνδεδεμένη λίστα στο πρόγραμμα c

Στο παραπάνω σχήμα, έχω προσθέσει δύο επιπλέον λέξεις που δηλώνουν την αρχή και το τέλος της πρότασης, θα καταλάβετε γιατί το έκανα στην παρακάτω ενότητα.

Τώρα ας ορίσουμε τη συχνότητα και για αυτά τα πλήκτρα:

Ενημερωμένα κλειδιά και συχνότητες - Εισαγωγή στις αλυσίδες Markov - Edureka

Ας δημιουργήσουμε ένα μοντέλο Markov. Όπως αναφέρθηκε προηγουμένως, ένα μοντέλο Markov χρησιμοποιείται για τη μοντελοποίηση τυχαίων μεταβλητών σε μια συγκεκριμένη κατάσταση με τέτοιο τρόπο ώστε οι μελλοντικές καταστάσεις αυτών των μεταβλητών να εξαρτώνται αποκλειστικά από την τρέχουσα κατάστασή τους και όχι από τις προηγούμενες καταστάσεις τους.

Βασικά λοιπόν σε ένα μοντέλο Markov, για να προβλέψουμε την επόμενη κατάσταση, πρέπει να λάβουμε υπόψη μόνο την τρέχουσα κατάσταση.

Στο παρακάτω διάγραμμα, μπορείτε να δείτε πώς κάθε διακριτικό στην πρόταση μας οδηγεί σε άλλο. Αυτό δείχνει ότι η μελλοντική κατάσταση (επόμενο διακριτικό) βασίζεται στην τρέχουσα κατάσταση (παρόν διακριτικό). Αυτός είναι ο πιο βασικός κανόνας στο μοντέλο Markov.

Το παρακάτω διάγραμμα δείχνει ότι υπάρχουν ζεύγη διακριτικών όπου κάθε διακριτικό στο ζεύγος οδηγεί στο άλλο στο ίδιο ζεύγος.

Ζεύγη αλυσίδων Markov - Εισαγωγή στις αλυσίδες Markov - Edureka

Στο παρακάτω διάγραμμα, έχω δημιουργήσει μια δομική αναπαράσταση που δείχνει κάθε κλειδί με μια σειρά από επόμενα πιθανά διακριτικά με τα οποία μπορεί να αντιστοιχιστεί.

Μια σειρά από ζεύγη αλυσίδων Markov - Εισαγωγή στις αλυσίδες Markov - Edureka

Για να συνοψίσουμε αυτό το παράδειγμα, σκεφτείτε ένα σενάριο στο οποίο θα πρέπει να διαμορφώσετε μια πρόταση χρησιμοποιώντας τον πίνακα πλήκτρων και διακριτικών που είδαμε στο παραπάνω παράδειγμα. Πριν περάσουμε σε αυτό το παράδειγμα, ένα άλλο σημαντικό σημείο είναι ότι πρέπει να καθορίσουμε δύο αρχικά μέτρα:

  1. Μια αρχική κατανομή πιθανότητας (δηλ. Η κατάσταση έναρξης τη στιγμή = 0, (κλειδί «Έναρξη»))

  2. Μια πιθανότητα μετάβασης από άλμα σε κατάσταση (σε αυτήν την περίπτωση, η πιθανότητα μετάβασης από το ένα σημείο στο άλλο)

Ορίσαμε τη σταθμισμένη κατανομή στην ίδια την αρχή, οπότε έχουμε τις πιθανότητες και την αρχική κατάσταση, τώρα ας δούμε το παράδειγμα.

  • Έτσι, για να ξεκινήσετε με το αρχικό διακριτικό είναι [Έναρξη]

  • Στη συνέχεια, έχουμε μόνο ένα πιθανό διακριτικό, δηλαδή [ένα]

  • Επί του παρόντος, η πρόταση έχει μόνο μία λέξη, δηλαδή 'μία'

  • Από αυτό το διακριτικό, το επόμενο πιθανό διακριτικό είναι [edureka]

  • Η πρόταση ενημερώνεται σε «ένα edureka»

  • Από το [edureka] μπορούμε να μετακινηθούμε σε οποιοδήποτε από τα ακόλουθα διακριτικά [δύο, χαλάζι, χαρούμενος, τέλος]

  • Υπάρχει 25% πιθανότητα να πάρει κανείς «δύο», αυτό θα μπορούσε ενδεχομένως να οδηγήσει στη διαμόρφωση της αρχικής πρότασης (ένα edureka two edureka hail edureka happy edureka). Ωστόσο, εάν επιλεγεί το «τέλος» τότε η διαδικασία σταματά και θα καταλήξουμε να δημιουργήσουμε μια νέα πρόταση, δηλαδή «ένα edureka».

Δώστε στον εαυτό σας ένα ελαφρύ κτύπημα επειδή μόλις δημιουργήσατε ένα μοντέλο Markov και εκτελέσατε μια δοκιμαστική θήκη μέσα από αυτό. Για να συνοψίσουμε το παραπάνω παράδειγμα, χρησιμοποιήσαμε βασικά την παρούσα κατάσταση (παρούσα λέξη) για να προσδιορίσουμε την επόμενη κατάσταση (επόμενη λέξη). Και αυτό ακριβώς είναι μια διαδικασία Markov.

Είναι μια στοχαστική διαδικασία όπου οι τυχαίες μεταβλητές μεταβαίνουν από τη μία κατάσταση στην άλλη κατά τέτοιο τρόπο ώστε η μελλοντική κατάσταση μιας μεταβλητής να εξαρτάται μόνο από την παρούσα κατάσταση.

Ας το κάνουμε στο επόμενο βήμα και να σχεδιάσουμε το μοντέλο Markov για αυτό το παράδειγμα.

Διάγραμμα μεταβατικής κατάστασης - Εισαγωγή στις αλυσίδες Markov - Edureka

Το παραπάνω σχήμα είναι γνωστό ως διάγραμμα μεταβατικής κατάστασης. Θα μιλήσουμε περισσότερο για αυτό στην παρακάτω ενότητα, γιατί τώρα θυμηθείτε ότι αυτό το διάγραμμα δείχνει τις μεταβάσεις και την πιθανότητα από τη μία κατάσταση στην άλλη.

Παρατηρήστε ότι κάθε οβάλ στο σχήμα αντιπροσωπεύει ένα κλειδί και τα βέλη κατευθύνονται προς τα πιθανά πλήκτρα που μπορούν να το ακολουθήσουν. Επίσης, τα βάρη στα βέλη δηλώνουν το πιθανότητα ή τη σταθμισμένη κατανομή της μετάβασης από / προς τις αντίστοιχες καταστάσεις.

Αυτό ήταν λοιπόν το πώς λειτουργεί το μοντέλο Markov. Τώρα ας προσπαθήσουμε να κατανοήσουμε μερικές σημαντικές ορολογίες στη διαδικασία Markov.

Τι είναι ένας πίνακας πιθανότητας μετάβασης;

Στην παραπάνω ενότητα συζητήσαμε τη λειτουργία ενός μοντέλου Markov με ένα απλό παράδειγμα, τώρα ας κατανοήσουμε τις μαθηματικές ορολογίες σε μια διαδικασία Markov.

Σε μια διαδικασία Markov, χρησιμοποιούμε έναν πίνακα για να αντιπροσωπεύσουμε τις πιθανότητες μετάβασης από τη μία κατάσταση στην άλλη. Αυτός ο πίνακας ονομάζεται πίνακας μετάβασης ή πιθανότητας. Συνήθως συμβολίζεται με P.

Transition Matrix - Εισαγωγή στις αλυσίδες Markov - Edureka

Σημείωση, pij & ge0 και 'i' για όλες τις τιμές είναι,

Τύπος Transition Matrix - Εισαγωγή στις αλυσίδες Markov - Edureka

Επιτρέψτε μου να το εξηγήσω αυτό. Υποθέτοντας ότι η τρέχουσα κατάστασή μας είναι «i», το επόμενο ή το επερχόμενο κράτος πρέπει να είναι ένα από τα πιθανά κράτη. Επομένως, ενώ παίρνουμε το άθροισμα όλων των τιμών του k, πρέπει να πάρουμε μία.

Τι είναι ένα διάγραμμα μεταβατικής κατάστασης;

Ένα μοντέλο Markov αντιπροσωπεύεται από ένα διάγραμμα κρατικής μετάβασης. Το διάγραμμα δείχνει τις μεταβάσεις μεταξύ των διαφόρων καταστάσεων σε μια αλυσίδα Markov. Ας κατανοήσουμε τον πίνακα μετάβασης και τον πίνακα μετάβασης κατάστασης με ένα παράδειγμα.

Παράδειγμα μεταβατικής μήτρας

Εξετάστε μια αλυσίδα Markov με τρεις καταστάσεις 1, 2 και 3 και τις ακόλουθες πιθανότητες:

Παράδειγμα Transition Matrix - Εισαγωγή στις αλυσίδες Markov - Edureka

Διάγραμμα μεταβατικής κατάστασης Παράδειγμα - Εισαγωγή στις αλυσίδες Markov - Edureka

Το παραπάνω διάγραμμα αντιπροσωπεύει το διάγραμμα μετάβασης κατάστασης για την αλυσίδα Markov. Εδώ, 1,2 και 3 είναι οι τρεις πιθανές καταστάσεις, και τα βέλη που δείχνουν από τη μία κατάσταση στις άλλες καταστάσεις αντιπροσωπεύουν τις πιθανότητες μετάβασης pij. Όταν, pij = 0, αυτό σημαίνει ότι δεν υπάρχει μετάβαση μεταξύ της κατάστασης «i» και της κατάστασης «j».

Τώρα που εμείς μάθετε τα μαθηματικά και τη λογική πίσω από τις αλυσίδες Markov, ας κάνουμε ένα απλό demo και να καταλάβουμε πού μπορούν να χρησιμοποιηθούν οι αλυσίδες Markov.

Αλυσίδα Markov στο Python

Για να τρέξω αυτό το demo, θα χρησιμοποιήσω το Python, οπότε αν δεν γνωρίζετε το Python, μπορείτε να διαβάσετε αυτά τα ακόλουθα ιστολόγια:

  1. Πώς να μάθετε το Python 3 από το Scratch - Ένας οδηγός για αρχάριους

Ας ξεκινήσουμε με την κωδικοποίηση!

Δημιουργία κειμένου αλυσίδας Markov

Δήλωση προβλήματος: Για να εφαρμόσετε το Markov Property και να δημιουργήσετε ένα μοντέλο Markov που μπορεί να δημιουργήσει προσομοιώσεις κειμένου μελετώντας το σύνολο δεδομένων ομιλίας Donald Trump.

Περιγραφή συνόλου δεδομένων: Το αρχείο κειμένου περιέχει μια λίστα ομιλιών του Donald Trump το 2016.

Λογική: Εφαρμόστε το Markov Property για να δημιουργήσετε την ομιλία του Donald Trump, εξετάζοντας κάθε λέξη που χρησιμοποιείται στην ομιλία και για κάθε λέξη, δημιουργήστε ένα λεξικό λέξεων που θα χρησιμοποιηθούν στη συνέχεια.

πώς να αναπτύξετε την εφαρμογή java σε aws

Βήμα 1: Εισαγάγετε τα απαιτούμενα πακέτα

εισαγωγή numpy ως np

Βήμα 2: Διαβάστε το σύνολο δεδομένων

trump = open ('C: //Users//NeelTemp//Desktop//demos//speeches.txt', encoding = 'utf8'). read () # εμφάνιση της εκτύπωσης δεδομένων (ατού) ΛΟΓΟΣ 1 ... Ευχαριστώ εσύ πάρα πολύ. Αυτό είναι τόσο ωραίο. Δεν είναι υπέροχος. Δεν παίρνει δίκαιο τύπο, δεν το παίρνει. Απλά δεν είναι δίκαιο. Και πρέπει να σας πω ότι είμαι εδώ, και πολύ έντονα εδώ, γιατί έχω μεγάλο σεβασμό για τον Steve King και έχω μεγάλο σεβασμό επίσης για τους Citizens United, David και όλους, και τεράστιο σεβασμό για το Tea Party. Επίσης, επίσης οι άνθρωποι της Αϊόβα. Έχουν κάτι κοινό. Εργατικοί άνθρωποι ....

Βήμα 3: Διαχωρίστε το σύνολο δεδομένων σε μεμονωμένες λέξεις

corpus = trump.split () # Εμφάνιση της εκτύπωσης corpus (corpus) «ισχυρή», «αλλά», «όχι», «ισχυρή», «όπως», «εμάς», «Ιράν», «έχει», » σπόροι »,« τρόμος », ...

Στη συνέχεια, δημιουργήστε μια συνάρτηση που δημιουργεί τα διαφορετικά ζεύγη λέξεων στις ομιλίες. Για να εξοικονομήσουμε χώρο, θα χρησιμοποιήσουμε ένα αντικείμενο γεννήτριας.

Βήμα 4: Δημιουργία ζευγών σε πλήκτρα και στις επόμενες λέξεις

def make_pairs (corpus): for i in range (len (corpus) - 1): απόδοση (corpus [i], corpus [i + 1]) ζεύγη = make_pairs (corpus)

Στη συνέχεια, ας ξεκινήσουμε ένα κενό λεξικό για να αποθηκεύσουμε τα ζεύγη λέξεων.

Σε περίπτωση που η πρώτη λέξη στο ζεύγος είναι ήδη κλειδί στο λεξικό, απλώς προσθέστε την επόμενη πιθανή λέξη στη λίστα λέξεων που ακολουθούν τη λέξη. Εάν όμως η λέξη δεν είναι κλειδί, δημιουργήστε μια νέα καταχώριση στο λεξικό και αντιστοιχίστε το κλειδί ίσο με την πρώτη λέξη στο ζεύγος.

Βήμα 5: Προσάρτηση του λεξικού

word_dict = {} για word_1, word_2 σε ζεύγη: if word_1 in word_dict.keys (): word_dict [word_1]. append (word_2) other: word_dict [word_1] = [word_2]

Στη συνέχεια, επιλέγουμε τυχαία μια λέξη από το σώμα, που θα ξεκινήσει την αλυσίδα Markov.

Βήμα 6: Δημιουργήστε το μοντέλο Markov

#randomly select the first word first_word = np.random.choice (corpus) # Επιλέξτε την πρώτη λέξη ως κεφαλαία λέξη έτσι ώστε η επιλεγμένη λέξη να μην λαμβάνεται μεταξύ μιας πρότασης ενώ first_word.islower (): # Ξεκινήστε την αλυσίδα η επιλεγμένη αλυσίδα λέξεων = [first_word] # Αρχικοποιήστε τον αριθμό των διεγερμένων λέξεων n_words = 20

Μετά την πρώτη λέξη, κάθε λέξη στην αλυσίδα γίνεται τυχαία δειγματοληψία από τη λίστα λέξεων που ακολούθησαν τη συγκεκριμένη λέξη στις ζωντανές ομιλίες του Τραμπ. Αυτό φαίνεται στο παρακάτω απόσπασμα κώδικα:

για i in range (n_words): chain.append (np.random.choice (word_dict [chain [-1]]))

Βήμα 7: Προβλέψεις

Τέλος, ας εμφανίσουμε το ερεθισμένο κείμενο.

#Join επιστρέφει την αλυσίδα ως εκτύπωση συμβολοσειράς ('.join (chain)) Ο αριθμός των απίστευτων ατόμων. Και η Χίλαρι Κλίντον, έχει τους ανθρώπους μας, και τόσο καλή δουλειά. Και δεν θα νικήσουμε τον Ομπάμα

Αυτό είναι λοιπόν το παραγόμενο κείμενο που έλαβα εξετάζοντας την ομιλία του Τραμπ. Μπορεί να μην έχει νόημα, αλλά είναι αρκετά καλό να σας κάνει να καταλάβετε πώς μπορούν να χρησιμοποιηθούν οι αλυσίδες Markov για την αυτόματη δημιουργία κειμένων.

Τώρα ας δούμε μερικές ακόμη εφαρμογές αλυσίδων Markov και πώς χρησιμοποιούνται για την επίλυση πραγματικών προβλημάτων.

Εφαρμογές αλυσίδας Markov

Ακολουθεί μια λίστα με πραγματικές εφαρμογές αλυσίδων Markov:

  1. Κατάταξη σελίδας Google: Ολόκληρος ο ιστός μπορεί να θεωρηθεί ως μοντέλο Markov, όπου κάθε ιστοσελίδα μπορεί να είναι κατάσταση και οι σύνδεσμοι ή οι αναφορές μεταξύ αυτών των σελίδων μπορούν να θεωρηθούν ως μεταβάσεις με πιθανότητες. Βασικά, ανεξάρτητα από την ιστοσελίδα στην οποία αρχίζετε να σερφάρετε, η πιθανότητα να φτάσετε σε μια συγκεκριμένη ιστοσελίδα, ας πούμε, το Χ είναι μια σταθερή πιθανότητα.

  2. Πρόβλεψη λέξεων δακτυλογράφησης: Οι αλυσίδες Markov είναι γνωστό ότι χρησιμοποιούνται για την πρόβλεψη επερχόμενων λέξεων. Μπορούν επίσης να χρησιμοποιηθούν στην αυτόματη συμπλήρωση και προτάσεις.

  3. Προσομοίωση Subreddit: Σίγουρα έχετε συναντήσει το Reddit και έχετε μια αλληλεπίδραση σε ένα από τα νήματα ή subreddits τους. Το Reddit χρησιμοποιεί έναν προσομοιωτή subreddit που καταναλώνει ένα τεράστιο ποσό δεδομένων που περιέχει όλα τα σχόλια και τις συζητήσεις που πραγματοποιήθηκαν σε όλες τις ομάδες τους. Χρησιμοποιώντας αλυσίδες Markov, ο προσομοιωτής παράγει πιθανότητες από λέξη σε λέξη, για να δημιουργήσει σχόλια και θέματα.

  4. Δημιουργία κειμένου: Οι αλυσίδες Markov χρησιμοποιούνται συνήθως για τη δημιουργία πλαστών κειμένων ή για την παραγωγή μεγάλων δοκιμίων και για τη σύνταξη ομιλιών. Χρησιμοποιείται επίσης στις γεννήτριες ονομάτων που βλέπετε στον Ιστό.

Τώρα που ξέρετε πώς να λύσετε ένα πραγματικό πρόβλημα χρησιμοποιώντας το Markov Chains, είμαι βέβαιος ότι θέλετε να μάθετε περισσότερα. Ακολουθεί μια λίστα ιστολογίων που θα σας βοηθήσουν να ξεκινήσετε με άλλες στατιστικές έννοιες:

Με αυτό, φτάνουμε στο τέλος αυτού του ιστολογίου Εισαγωγή στο Markov Chains. Αν έχετε απορίες σχετικά με αυτό το θέμα, αφήστε ένα σχόλιο παρακάτω και θα επικοινωνήσουμε μαζί σας.

Μείνετε συντονισμένοι για περισσότερα ιστολόγια σχετικά με τις τάσεις τεχνολογίας.

Αν ψάχνετε για διαδικτυακή δομημένη εκπαίδευση στην Επιστήμη Δεδομένων, edureka! έχει μια ειδική επιμέλεια Πρόγραμμα που σας βοηθά να αποκτήσετε εξειδίκευση σε Στατιστικά στοιχεία, Διαμάχη Δεδομένων, Διερευνητική Ανάλυση Δεδομένων, Αλγόριθμοι Μηχανικής Μάθησης, όπως K-Means Clustering, Decision Trees, Random Forest, Naive Bayes. Θα μάθετε τις έννοιες των Time Series, Text Mining και μια εισαγωγή στη Deep Learning επίσης. Νέες παρτίδες για αυτό το μάθημα ξεκινούν σύντομα !!