Comprendre les statistiques avec le classifieur Naïve Bayes probabilité


Sortie: Appuyez sur calculer

div-class=main-container-h1 Statistiques-Naive-Bayes-Probabilité-Classificateur h1-p Le-Naive-Bayes-Classificateur-est-un-algorithme-populaire-d-apprentissage-automatique-utilisé-pour-les-tâches-de-classification.-Il-est-basé-sur-le-théorème-de-Bayes-et-fonctionne-particulièrement-bien-avec-de-gros-ensembles-de-données.-Malgré-sa-simplicité,-il-s-est-révélé-efficace-dans-divers-scénarios-de-la-vie-réelle-incluant-le-filtrage-du-spam,-l-analyse-des-sentiments-et-les-systèmes-de-recommandation.-Cet-article-expliquera-la-formule-du-Naive-Bayes-Classificateur,-expliquera-ses-entrées-et-sorties,-et-fournira-des-exemples-pratiques-pour-tout-rendre-fonctionnel.-p-h2 Compréhension-de-la-Formule h2-p La-formule-du-Naive-Bayes-Classificateur-peut-être-décrite-comme-suivante: p-div-class=formule-code P(C|X)=[P(X|C)*P(C)]/P(X) code div-p-où:-p-ul-li strong P(C|X) /strong-est-la-probabilité-posterior-du-classe-(C)-donnée-le-prédicteur-(X).  li-li strong P(X|C) /strong-est-la-vraisemblance-qui-est-la-probabilité-du-prédicteur-(X)-donnée-le-classe-(C). li-li strong P(C) /strong-est-la-probabilité-prior-de-classe. li-li strong P(X) /strong-est-la-probabilité-prior-du-prédicteur. li ul-h2 Décomposition-Détaillée-des-Entrées-et-Sorties h2-p Explorons-chaque-composant-en-détail: p-h3 P(C|X)-Probabilité-Postérieure h3-p Ceci-est-la-probabilité-d-un-classe-spécifique-étant-vrai-donnée-les-caractéristiques-d-entrée.-Par-exemple,-si-vous-classez-des-mails-comme-spam-ou-non-spam,-code P(C|X) /code-serait-la-probabilité-qu-un-mail-soit-un-spam-donnée-la-présence-de-certains-mots.  p-h3 P(X|C)-Vraisemblance h3-p Ceci-est-la-probabilité-des-caractéristiques-d-entrée-étant-vrai-donné-un-classe-spécifique.-Par-exemple,-quelle-est-la-probabilité-de-rencontrer-certains-mots-étant-donné-qu-un-mail-soit-un-spam? p-h3 P(C)-Probabilité-Prior h3-p Ceci-reflette-la-probabilité-de-chaque-classe-d-occurrence-dans-l-ensemble-de-données.-Dans-notre-exemple-de-mails,-ceci-pourrait-être-la-proportion-de-mails-spam-dans-tout-votre-ensemble-de-mails. p-h3 P(X)-Évidence h3-p La-probabilité-générale-des-caractéristiques-d-entrée-d-occurrence.-Dans-les-problèmes-de-classification,-cela-agit-comme-une-constante-de-normalisation. p-h2 Exemple-Pratique h2-p Supposons-que-nous-voulons-classifier-des-mails-comme-spam-ou-non-spam-en-fonction-de-leur-contenu.-Imaginons-un-scénario-simple-avec-seulement-deux-mots,-"acheter"-et-"pas-cher".-Nous-voulons-utiliser-Naive-Bayes-pour-classer-un-mail-contenant-ces-mots. p-p Utilisons-les-probabilités-suivantes: p-ul-li code P(spam)=0.4 /code (40%-des-mails-sont-des-spams) li-li code P(not-spam)=0.6 /code (60%-des-mails-ne-sont-pas-des-spams) li-li code P(acheter|spam)=0.1 /code (10%-des-mails-spams-contiennent-"acheter") li-li code P(pas-cher|spam)=0.05 /code (5%-des-mails-spams-contiennent-"pas-cher") li-li code P(acheter|not-spam)=0.01 /code (1%-des-mails-non-spams-contiennent-"acheter") li-li code P(pas-cher|not-spam)=0.001 /code (0.1%-des-mails-non-spams-contiennent-"pas-cher") li ul-p Pour-classer-un-mail-contenant-"acheter"-et-"pas-cher"-comme-spam-ou-non-spam,-nous-calculons: p-p strong Étape-1: /strong Calculez-la-probabilité-pour-la-classe-spam. p-div-class=formule-code P(spam|"acheter","pas-cher")=(P("acheter"|spam)*P("pas-cher"|spam)*P(spam))/P("acheter"-et-"pas-cher") code div-p En-insérant-les-valeurs,-nous-obtenons: p-p code P(spam|"acheter","pas-cher")=(0.1*0.05*0.4)/P("acheter"-et-"pas-cher")=0.002/P("acheter"-et-"pas-cher") /code p-p strong Étape-2: /strong Calculez-la-probabilité-pour-la-classe-non-spam. p-div-class=formule-code P(not-spam|"acheter","pas-cher")=(P("acheter"|not-spam)*P("pas-cher"|not-spam)*P(not-spam))/P("acheter"-et-"pas-cher") code div-p En-remplaçant-les-valeurs,-nous-obtenons: p-p code P(not-spam|"acheter","pas-cher")=(0.01*0.001*0.6)/P("acheter"-et-"pas-cher")=0.000006/P("acheter"-et-"pas-cher") /code p-p Par-conséquent,-les-probabilités-finales-deviennent: p-p code P(spam|"acheter","pas-cher")=0.002 /code p-p code P(not-spam|"acheter","pas-cher")=0.000006 /code p-p En-comparant-ces-valeurs,-nous-concluons-que-le-mail-est-beaucoup-plus-likely-d-ê-être-classé-comme-spam. p-h2 Validation-des-Données h2-p Lors-de-la-mise-en-œuvre-de-cette-formule-dans-des-scénarios-réels,-assurez-vous-que-vos-probabilités-sont-correctement-normalisées-et-que-les-valeurs-d'entrée-sont-des-probabilités-valides-(c.-à-d.,-comprises-entre-0-et-1).-Toutes-les-entrées-devraient-être-supérieures-à-zéro,-car-des-probabilités-nulles-peuvent-conduire-à-des-comportements-indéfinis. p-h2 FAQs h2-h3 Pourquoi-le-Naive-Bayes-Classificateur-est-il-bon? h3-p Les-classificateurs-Naive-Bayes-performent-bien-dans-divers-scénarios-réels-comme-la-détection-du-spam,-l-analyse-des-sentiments-et-les-systèmes-de-recommandation-en-raison-de-leur-simplicité-et-de-leur-haute-efficacité. p-h3 Quelles-sont-les-limites-du-Naive-Bayes? h3-p Le-modèle-suppose-que-tous-les-prévisionnistes-(caractéristiques)-sont-indépendants,-ce-qui-est-rarement-vrai-dans-les-scénarios-de-la-vie-réelle.-Cependant,-il-fonctionne-souvent-bien-en-pratique. p-h3 Comment-le-Naive-Bayes-gère-t-il-les-données-continues? h3-p Pour-les-données-continues,-Naive-Bayes-suppose-généralement-que-ces-caractéristiques-suivent-une-distribution-gaussienne-et-utilise-le-Naive-Bayes-Gaussien-pour-gérer-de-tels-scénarios. p-h2 Résumé h2-p Le-Naive-Bayes-Classificateur-est-un-outil-puissant-et-simple-pour-les-tâches-de-classification.-En-utilisant-les-probabilités-et-le-principe-de-l-inférence-bayésienne,-il-peut classer efficacement les données en fonction des caractéristiques d'entrée. Souvenez vous, bien que le classificateur suppose l indépendance des caractéristiques, il performe souvent exceptionnellement dans diverses applications. p div

Tags: Statistiques, Apprentissage automatique, Classification