Analyse de sentiment Twitter et traitement du langage naturel (NLP) pour les débutants | Engineering Tech | Skillshare
Recherche

Vitesse de lecture


  • 0.5x
  • 1 x (normale)
  • 1.25x
  • 1.5x
  • 2x

Analyse de sentiment Twitter et traitement du langage naturel (NLP) pour les débutants

teacher avatar Engineering Tech, Big Data, Cloud and AI Solution Architec

Regardez ce cours et des milliers d'autres

Bénéficiez d'un accès illimité à tous les cours
Suivez des cours enseignés par des leaders de l'industrie et des professionnels
Explorez divers sujets comme l'illustration, le graphisme, la photographie et bien d'autres

Regardez ce cours et des milliers d'autres

Bénéficiez d'un accès illimité à tous les cours
Suivez des cours enseignés par des leaders de l'industrie et des professionnels
Explorez divers sujets comme l'illustration, le graphisme, la photographie et bien d'autres

Leçons de ce cours

    • 1.

      Introduction

      1:11

    • 2.

      Convertir du texte en valeurs numériques à l'aide d'un modèle de bag-of-words

      4:31

    • 3.

      Modèle tf-idf pour convertir du texte en valeurs numériques

      4:11

    • 4.

      Noyau NLP et construction d'un classificateur de texte

      10:07

    • 5.

      Demander un compte de développement Twitter

      2:21

    • 6.

      Analyse de sentiment Twitter à l'aide du classificateur de texte

      5:37

    • 7.

      Créer un classificateur de texte en utilisant PyTorch

      3:32

    • 8.

      Créer un classificateur de texte en utilisant TensorFlow

      1:43

  • --
  • Niveau débutant
  • Niveau intermédiaire
  • Niveau avancé
  • Tous niveaux

Généré par la communauté

Le niveau est déterminé par l'opinion majoritaire des apprenants qui ont évalué ce cours. La recommandation de l'enseignant est affichée jusqu'à ce qu'au moins 5 réponses d'apprenants soient collectées.

67

apprenants

--

À propos de ce cours

Il existe en moyenne 500 millions de tweets par jour ! Les gens tweettent sur différents sujets , des questions allant de la politique, du sport au cinéma à presque tous les sujets sous le soleil. L'analyse du sentiment est le processus de détermination de savoir si un morceau de texte (revue, tweet, rétroaction, etc.) est positif ou négatif. L'analyse de sentiment nous aide à obtenir la rétroaction des clients sur certains produits ou services. Il est utilisé obtenir l'ambiance générale du public sur diverses affaires quotidiennes. L'analyse du sentiment peut également être utilisée pour prédire les résultats électoraux.

Dans ce cours, vous apprendrez ce qui suit

  1. Convertir du texte en valeurs numériques à l'aide de modèles bag-of-words et tf-idf
  2. Techniques de base de NLP - mots d'arrêt, timbres, tokenisation
  3. Construire un classificateur de texte en utilisant des techniques de classification de l'apprentissage automatique
  4. Exportation et déploiement des modèles d'apprentissage automatique
  5. Configuration d'un compte de développement Twitter
  6. Récupérer des tweets en temps réel à partir de twitter et prévoir le sentiment.

Prérequis :

Vous devez avoir des connaissances préalables en Python et en techniques de machine Learning de base telles que la classification

Rencontrez votre enseignant·e

Teacher Profile Image

Engineering Tech

Big Data, Cloud and AI Solution Architec

Enseignant·e

Hello, I'm Engineering.

Voir le profil complet

Level: Beginner

Notes attribuées au cours

Les attentes sont-elles satisfaites ?
    Dépassées !
  • 0%
  • Oui
  • 0%
  • En partie
  • 0%
  • Pas vraiment
  • 0%

Pourquoi s'inscrire à Skillshare ?

Suivez des cours Skillshare Original primés

Chaque cours comprend de courtes leçons et des travaux pratiques

Votre abonnement soutient les enseignants Skillshare

Apprenez, où que vous soyez

Suivez des cours où que vous soyez avec l'application Skillshare. Suivez-les en streaming ou téléchargez-les pour les regarder dans l'avion, dans le métro ou tout autre endroit où vous aimez apprendre.

Transcription

1. Introduction: Bienvenue sur ce cours d'analyse des sentiments Twitter. Dans ce cours sera récupérer des tweets en temps réel de Twitter et prédire sentiment de tweets en utilisant traitement du langage naturel et les techniques d'apprentissage automatique Python. Comprendra d'abord les techniques de classification et construira un classificateur de texte qui peut lire n'importe quel texte et prédire si le sentiment est positif ou négatif. Une fois que cela est fait, épuisera les mortels pour l'analyse du sentiment Twitter. Ce cours est conçu pour quelqu'un qui connaît déjà l'apprentissage automatique Python et le lavage pour comprendre comment faire la classification de texte et appliquer diverses techniques NLP pour faire l'analyse des sentiments Twitter. Si vous êtes complètement nouveau en Python et machine learning, vous pouvez consulter notre autre cours qui est conçu pour un témoignage absolu. Alors plongons et commençons. 2. Convertir le texte en valeurs numériques en utilisant le modèle de bag-of-words: Tous les modèles d'apprentissage automatique sont conçus pour fonctionner sur des données numériques. Si vous avez des données numériques, salaire de l'agent est affiché ici, alors nous pouvons facilement construire un modèle d'apprentissage automatique qui peut prédire la sortie d'un nouvel ensemble de données. Maintenant, comment appliquer cette technique pour classer le texte ? Par exemple, nous aurions pu examiner les données d'un restaurant comme services bons ou les ambiances vraiment sympa, dur. Nous les classons comme avis positifs ou négatifs. Si nous sommes en mesure de construire un modèle de classification basé sur ces données d'examen, alors nous pouvons prédire si une nouvelle suppression, par exemple, le cours principal était agréable, si elle est bonne ou mauvaise. Le problème que nous devons résoudre est comment convertir cela ? Prend les données au format numérique. Cela nous amène au traitement du langage naturel ou NLP. C' est un domaine de l'informatique qui traite de l'interaction entre l'informatique et les langages humains. Nlp peut être utilisé pour traiter du texte ou de la parole. Une des façons de convertir prend au format numérique est en utilisant sac de mots modèle que vous représentez le texte est sac de mots, sans tenir compte de la grammaire et de l'ordre dans lequel ils se produisent, mais en gardant la multiplicité, vous donnez une pondération plus élevée à accorder si elle se produit plus de fois dans une phrase particulière. Comprenons sac de mots à travers un exemple simple. Nous avons trois phrases. Service, bonne ambiance, bonne nourriture. Voyons maintenant comment nous pouvons les représenter en format numérique en utilisant la modélisation du sac de mots. Identifions tous les mots un peering dans les trois phrases. Ce sont un service, bon, agréable, ambiance. Et pour l'instant, voyons combien de fois chaque mot se produit dans chacune des phrases. Le service de première phrase se produit une fois. Alors, captuons-en un. Nice ne se produit pas dans la première phrase. Alors capturons 02. De même, vous pouvez le faire pour tous les mots dans les trois phrases. Ensuite, vous pouvez créer une matrice de valeurs numériques. Regardons un exemple un peu plus complexe. Nous avons trois phrases, et ces phrases ont beaucoup de mots dit montré ici. Les premières phrases sont bonnes aujourd'hui, alors l'ambiance est vraiment agréable. Puis le troisième est aujourd'hui pour son manteau et la salade est agréable. Nous allons créer un histogramme de mots et capturer combien de fois chaque mot se produit. Lorsque vous convertissez une phrase au format numérique, vous ne prenez pas nécessairement tous les mots. Vous devrez trouver les mots principaux, puis créer une matrice à partir de cela. Il existe différentes bibliothèques disponibles pour vous permettre de choisir Top 1000 ou 10 mille mots anglais pour votre texte et de créer un vecteur numérique. Pour l'instant, essayons de comprendre comment le modèle est créé en prenant ces exemples simples, puis en choisissant une puissance difficile de quatre ou cinq watts. Lorsque vous commencez à travailler sur le projet NLP réel, vous avez adoré les bibliothèques pour vous aider à extraire les mots et à créer des vecteurs numériques. Donc, dans ce cas particulier, nous avons arrangé mot par mot compte, et choisissons ces cinq mots. Est bon, agréable aujourd'hui en service, qui se produisent le plus grand nombre de fois. Et choisissons ce top cinq watts qui se produisent plus de fois, puis construisons un vecteur numérique pour nos trois phrases. Donc, comme vous pouvez le voir ici, ce que Issachar deux fois pour la troisième phrase. Donc, c'est là que la valeur est deux ici. Pour le reste des phrases, il se produit une fois, donc nous sommes capturés un an. De même, le nombre de fois où chaque mot se produit dans chaque phrase est capturé ici. La limitation du modèle de sac de mots voit chacun ce qui est donné la même importance. Si vous devez faire une analyse en utilisant du texte, par exemple, si vous devez calculer le sentiment du texte, tous les mots ne peuvent pas à la même impuissance. Par exemple, des mots comme nice auront une plus grande importance qu'aujourd'hui lorsqu'il s'agit d'une analyse positive du sentiment. Regardons maintenant une autre technique à l'aide de laquelle nous pouvons donner une plus grande importance à certains mots. 3. Modèle tf-idf pour convertir le texte en des valeurs numériques: TF-IDF est une technique populaire pour convertir les prises au format numérique. TF-IDF représente la fréquence des termes et la fréquence inverse des documents. Il est mis ce modèle, si votre mot se produit plus de fois dans un document ou une phrase, il est donné plus d'importance. Cependant, si le même ordre se produit dans de nombreuses phrases ou de nombreux documents, alors le mot est donné moins d'importance. Regardons un exemple. Tf est la fréquence du terme, c'est-à-dire le nombre d'occurrences d'un mot dans un document divisé par le nombre de mots dans ce document ou cette phrase. Par exemple, si aujourd'hui la nourriture est bonne et les salaires Nice. C' est une phrase. Puis la fréquence du terme de ce que le bien est un par huit parce que le mot bon se produit une fois et il y a au total huit mots. De même, la fréquence cible du mot 0s est de deux par huit parce que le mot iz se produit deux fois. Et il y a correctement vers. Donc, passer par ce modèle aurait facilement plus d'importance que nous sommes bons parce qu'il se produit plus de fois dans cette phrase particulière. Cependant, si vers le cresson commun facile, plusieurs phrases sont des documents, son importance serait plus faible. Donc, cela est conduit par la fréquence inverse du document, qui va regarder ensuite. Fréquences Idf Inverse Document calculées sur la base de cette formule. Log base C, nombre de phrases divisé par le nombre de phrases contenant le mot. Encore une fois, vous n'avez pas besoin de vous souvenir de cette formule. Vous aimez les bibliothèques disponibles pour calculer les valeurs TF et IDF. Pour l'instant, comprenez les concepts. Regardons un exemple simple pour comprendre IDF. Imaginez que nous ayons trois phrases. Les services sont bons. Aujourd'hui, l'ambiance est vraiment agréable, et aujourd'hui la nourriture est bonne et solide est agréable. Nous savons déjà comment calculer la fréquence des différents mots apparaissant dans ces phrases. Maintenant, pour calculer la fréquence du document inverse devra faire log base C, nombre de phrases. C' est trois pour tous les mots divisés par le nombre de phrases contenant le mot. Par exemple, facilite un peering dans les trois phrases. Donc, dans le dénominateur, nous avons trois pour chacun de log base e, trois par trois 0. Maintenant, le mot Israël ont moins d'importance parce qu'il est un des mots qui se produisent couramment. De même pour le mot bon, cela se produit. Et pour documenter, Si nous appliquons la base de log e trois par deux, nous obtiendrons un point très bas pour un. Et puis nous pouvons calculer pour tous les mots. Le service se produit uniquement dans une phrase ou un document, donc sa valeur est 1.09. Pour calculer la valeur numérique de chaque mot, nous prenons en compte à la fois TF et IDF. Il suffit de multiplier TF, IDF, par exemple, pour ce qui est TAP est 0,25 et IDF est 0. De même, vous pouvez calculer la valeur TF-IDF pour tous les mots. Maintenant, vous pouvez voir que les mots ont de l'importance en fonction du nombre de fois qu'ils se produisent dans une phrase et du nombre de fois qu'ils se produisent dans toutes les phrases. Contrairement au modèle de sac de mots, nous donnons plus d'importance vers lequel se produisent plus de fois dans une phrase particulière, mais ils sont des listes étalées. C' est le modèle TF-IDF à l'aide duquel vous pouvez convertir les prises au format numérique. Maintenant, une fois que vous avez ce texte en format numérique, cela peut-on s'adapter à un modèle d'apprentissage automatique ? Chacun de ces mots dans un système de classification basé sur le texte serait une caractéristique ou des variables indépendantes. Et votre variable dépendante serait de savoir si le sentiment est positif ou non. Qui peut être représenté en format numérique est un ou géo au lieu de positif ou négatif. 4. noyau NLP et Créer un classificateur de texte: Nous allons comprendre comment construire un classificateur de texte en utilisant les techniques que vous venez d'apprendre permettra également de comprendre certains des concepts fondamentaux de la PNL ou du traitement du langage naturel. Allez dans Google collab et créez un nouveau bloc-notes. On l'appellera classificateur de texte. Il existe différentes bibliothèques disponibles pour le traitement du langage naturel. Sera prétraiter notre texte en utilisant une bibliothèque populaire appelée NLTK. Comprendra la NLTK et certains des concepts de base du traitement du langage naturel en examinant quelques exemples. abord, nous devons importer NLTK. Après cela, nous devons télécharger les bibliothèques NLTK et téléchargerons tous les passifs. Pendant qu'il est en téléchargement. Regardons le fichier texte sur lequel nous allons travailler pour comprendre NLP et construire un classificateur de texte. Sera regarder ces données d'évaluation de restaurant. Ceci est disponible sur Kaggle et bien d'autres endroits en ligne. Ce sont les données de redémarrage du restaurant et si les clients aiment le point de restaurant un signifie qu'ils ont comme messieurs pas pas comme. Vous pouvez voir certaines des phrases positives comme la phrase, nous sommes bons. C' est une question qui est positive. Qui ne reviendrait pas en arrière ? C' est une phrase négative, c'est une critique négative. Donc, cela est marqué comme 0. Donc, sur la base de ces données devra construire classificateur de texte, en utilisant lequel nous pouvons prédire si une nouvelle phrase positive ou non. Nous allons cliquer sur l'onglet pour obtenir le chemin de ce fichier. On a besoin de Pandas pour charger le fichier. Donc, nous allons d'abord importer numpy en tant que np, puis Pandas en tant que pd. L' utilisation de pandas read_csv lira ce fichier CSV à partir de notre référentiel GitHub. Nous avons eu une erreur car ce n'est pas séparé par des virgules, séparé par des tabulations, vous devez donc spécifier ce délimiteur. Donc, le délimiteur serait onglet, puis capturer revêtement égal à trois, ce qui signifie que les guillemets doubles doivent être ignorés. Une fois qu'il est chargé dans un DataFrame Pandas, nous pouvons voir les records les plus importants. Maintenant, cette annonce de restaurant chargée sur un DataFrame Pandas. Dans le traitement du langage naturel, nous supprimons certains des mots courants lac, même s'ils ne nous disent pas si une phrase est positive ou négative, mais ils occuperaient de l'espace. Ces mots s'appellent des mots d'arrêt. Et en utilisant NLTK, nous pouvons facilement nous débarrasser de tous les mots stop. Il y a un autre concept appelé l'enfoncement à l'aide duquel nous pouvons dériver la forme racine des mots. Par exemple, pour les deux en cours d'exécution, nous pouvons avoir word run pour total et total. Nous avons pu travailler au total. Que nous, nous limitons le nombre de mots dans notre analyse. Comprenons comment ça fonctionnerait. Tout d'abord, nous allons importer la bibliothèque de mots d'arrêt à partir de NLTK. Ensuite, nous allons importer porter stemmer, en utilisant lequel vous pouvez dériver route pour les mots, instancier la classe stemmer. Regardons maintenant notre jeu de données en détail. Il est 1000 entrées, devra faire une boucle à travers ces entrées vantées et supprimer tous les mots stop et appliquer stemming et créer un corpus de technologie propre. Nous allons d'abord déclarer une liste vide qui contiendra le corpus de texte. Maintenant, pour i dans la plage 0 à mille, nous allons déclarer une variable d'évaluation client qui contiendra des données pour chaque ligne, nous pouvons récupérer en utilisant la revue de jeu de données I. Ensuite, nous allons nous débarrasser de tous les mots d'arrêt et appliquer le stemming en utilisant cette syntaxe. Donc, nous allons obtenir tous les mots qui sont là dans l'évaluation client. Et si le mot n'est pas dans la liste des mots d'arrêt anglais de la bibliothèque NLTK, vous appliquez le stemming. Ensuite, vous pouvez concaténer les mots pour récupérer la phrase. Et puis enfin, nous allons ajouter cela à la liste du corpus, fera également un nettoyage des données supplémentaires. Si nous regardons ce redémarrage, il y a certains caractères comme le point d'exclamation, que nous pouvons également nous débarrasser de l'utilisation de Python. L' expression régulière ne conservera que les alphabets en lettres majuscules plus petites. Et vous pouvez facilement le faire en Python en utilisant l'expression régulière. Et la syntaxe pour cela est quelque chose comme ça. Devrait, cela devrait se débarrasser de tous les caractères qui ne sont pas alphabet et convertira également toutes les phrases en minuscules pour plus de cohérence. Maintenant, nous allons diviser la phrase sur l'espace pour dériver les mots. Donc, la première ligne est de supprimer tous les caractères indésirables. Ensuite, nous convertissons les phrases en minuscules, divisant par espace. Pour chaque mot. Si ce n'est pas dans des mots d'arrêt, alors nous prenons ce mot et appliquons la racine. Et enfin, nous rejoignons toute la montre pour récupérer la phrase. Alors exécutons-le et voyons la sortie. Nous devons également importer l'expression régulière. Cela doit être plus bas. Maintenant, après ça, nous devrions avoir un corpus de phrases propres. Vérifions les valeurs. Nous allons prendre la première phrase est que vous pouvez voir maintenant nous avons tous les points supprimés et la phrase entière le convertir en minuscules. Disons la ligne d'accord sept, qui est un index six. Vous pouvez voir que les parenthèses ont été supprimées. Et aussi tous les mots stop comme a dans le et d'autres mots courants ont été supprimés. Et le dompteur nous a aidés à dériver la forme de racine jusqu'à chaque mot. Regardons un autre exemple. C' est donc une autre phrase où les mots ont été changés à leur forme racine. Notez que la forme racine peut ou non avoir une signification quelconque. Mais cela nous aiderait à réduire le nombre de mots afin que nous puissions faire le traitement beaucoup plus rapidement. Ensuite, convertissons les phrases au format numérique en utilisant le trésor vectoriel TFIDF. Scikit-apprendre est-il TFIDF vecteur Egypt classe. Et nous pouvons spécifier combien de mots nous voulons, tau 01500 ou quel que soit le nombre. En utilisant DAF moyen, nous spécifions que le mot doit se produire au prix de location pour que cela soit considéré. Donc, vous pouvez vous débarrasser des mots qui sont. Couper rarement en utilisant la moyenne df. En utilisant max D si vous pouvez vous débarrasser des mots qui se produisent fréquemment dans tous les documents. Ainsi, par exemple, MAX da 0.6 se débarrasserait de tout mot qui se produit dans plus de 60% des documents. Ensuite, en utilisant le vectorisé ou nous pouvons convertir le corpus en un porteur numérique. Nous allons imprimer prend maintenant. Ce sont donc les valeurs TF-IDF. Il y aura des valeurs non nulles qui ne sont pas affichées dans ce bloc-notes. Vérifions un exemple d'enregistrement. Et nous pouvons voir que certains des mots ont des valeurs non nulles. Donc, ce victimisateur est créé un portage numérique en deux dimensions à partir de toutes les phrases dans le dossier de révision du restaurant. Dans ce jeu de données, comme le fait la variable dépendante qui contient un ou 0. Donc, créons une variable dépendante, y, qui aura des données pour cette colonne. Donc, nous allons obtenir toutes les lignes et la deuxième colonne, convertir cela en un tableau NumPy. Et lorsque vous imprimez y, vous pouvez voir toutes les valeurs un ou 0. Après cela, les stapes pour créer un modèle d'apprentissage automatique est le même que ce que nous avons vu précédemment pour les données numériques. Nous allons faire des tests de train, diviser, garder 80% de données pour l'entraînement, 20% pour les tests. Utilisons la technique K jamais pour construire un classificateur. Ainsi, vous pouvez également utiliser n'importe quelle autre technique de classification comme peut-être , qui est un classificateur populaire pour les données basées sur le texte. Maintenant, prédisons en utilisant le classificateur. Dérissons la matrice de confusion. Imprimera maintenant la question de l'équité. Ensuite, nous allons avoir un échantillon de phrase et prédire si elle est positive ou négative. Nous utilisons le même vecteur loisir pour convertir cette phrase au format numérique. C' est donc maintenant la représentation de la sentence par les FDI. Après cela, nous pouvons prédire le sentiment en utilisant la méthode de prédiction du classificateur. On en a donc un qui est positif. Prenons un autre exemple de phrase. Convertissez cela au format TFIDF. Maintenant prédire le sentiment et nous sommes arrivés à 0. C' est donc une phrase négative. C' est ainsi que nous pouvons construire un classificateur de texte qui peut lire différentes phrases et déterminer s'il est positif ou négatif. Maintenant, si quelqu'un veut prédire en utilisant ce classificateur, il aurait besoin du classificateur. Ils auraient aussi besoin de la mesure de la victoire. Exportons ces deux fichiers au format décapé. Donc c'est notre classificateur. On l'appellera classificateur de texte. Et nous allons créer un fichier pickle pour ce modèle TF-IDF. Maintenant, nous avons à la fois les fichiers pickle et nous pouvons télécharger à partir de l'environnement colab et le prendre dans un autre environnement où nous pouvons utiliser ces fichiers de boucle pour prédire sentiment de texte. 5. Demander un compte de développeur Twitter: Allons sur le développeur dot twitter.com et postulons pour un compte développeur. Donc, c'est différent de dot to.com que vous pourriez avoir. Pashtun pourrait se connecter à Twitter, puis aller à son partenaire juridique tutor.com. Cliquez sur Appliquer. Cliquez sur Appliquer pour un compte développeur. Je vais commencer à faire des recherches académiques. Et donnez tous vos détails. Spécifié la raison de la création d'un compte développeur qui vous donnera accès aux données. Epa a répondu aux questions de cette vidéo. Cliquez sur Suivant. Lisez les conditions générales et cliquez sur Accepter. Et soumettez la demande. Vous devez aller dans votre boîte aux lettres et confirmer que vous avez postulé. Maintenant, il y aura avec l'application et l'approuver. Cela peut prendre quelques heures ou jusqu'à quelques jours. Et vous recevrez un e-mail indiquant que votre demande a été soumise pour examen. Une fois votre application approuvée, accédez au point développeur Twitter.com. Cliquez sur le portail des développeurs. Ensuite, vous pouvez cliquer ici sur les applications. Et vous pouvez effacer la sieste. Donnez-lui un nom, donnez-lui une URL de rappel, qui peut être la même que votre URL. Et d'autres détails. Un arrêt est créé. Vous pouvez aller aux clés et aux jetons et obtenir votre EPA consommateur et la clé secrète que vous pouvez utiliser pour récupérer deux. C' est que vous pouvez toujours revenir aux applications et sélectionner une application particulière, et revenir à l'onglet clés et jetons pour voir les clés. Et vous pouvez aussi Région partie de saut, mettre quelqu'un connaît vos clés, alors vous pouvez toujours les lire. Et vous pouvez générer des jetons d'accès et des clés d'accès. Et vous ne pouvez voir ces valeurs qu'une fois que Sudipto copier et les donner quelque part. 6. Analyse des sentiments sur Twitter en utilisant le classificateur de texte: Allons maintenant à l'ordinateur portable classificateur de texte sur Google Columbian télécharger les fichiers cornichons que nous avons générés dans le niveau précédent. Nous devons d'abord importer la stabilité du fichier. Ensuite, nous pouvons enregistrer le téléchargement de magasin de fichiers et spécifier le nom de fichier dans les tribunaux, et télécharger les fichiers bcl plus rapidement télécharger le classificateur. Ensuite, nous allons télécharger la modélisation TF-IDF va télécharger les fichiers décapés dans le dépôt GitHub. Maintenant, nous allons créer un nouveau bloc-notes pour l'analyse des sentiments Twitter. On va sauver ça. Nous le nommerons comme Drew ne demande pas d'analyse. Il s'agit d'un nouveau bloc-notes, donc les fichiers de cornichons ne seront pas présents ici. Les copiera à partir du dépôt GitHub. Copier l'adresse du lien. Ensuite, obtenez d'abord le modèle TF-IDF point, Copier l'adresse de lien, puis obtenez le classificateur de texte. Maintenant, les deux fichiers ont été copiés. Pour faire une analyse de sentiment Twitter à partir d'un programme Python utilisera comme responsabilité. Premier 3p cliniquement important. Ensuite, nous devons déclarer des variables de transfert pour stocker la clé du consommateur, le secret du consommateur, jeton d'accès et le secret d'accès. Copyons-les à partir de notre compte développeur. Nous allons sélectionner l'application que nous venons de créer et copier cette clé secrète et accéder au jeton et secrète d'accès et régénérer ces clés. Après ce laboratoire, vous ne pourrez pas utiliser ces clés. Ensuite, nous allons écrire ceux qui se sont avérés être essentiels pour indignés sur Twitter en utilisant le secret du consommateur clé, jeton d'accès et secret d'accès. Ensuite a déclaré une variable APA avec un certain délai d'expiration, spécifié 22e timeout. S' il n'y a pas de tweet pendant 20 secondes, il expirera. Ensuite, allons chercher des tweets pour un texte particulier. Sera chercher le vaccin, ce qui est un sujet populaire. Maintenant, nous allons créer une liste vide pour stocker tous les tweets. Et puis en utilisant l'accord 2pi standard, nous pouvons récupérer tous les points, dont la seule chose à laquelle vous devez faire attention est nombre de tweets que vous voulez récupérer ont spécifié 500 ici. Cela continuera à fonctionner jusqu'à ce qu'il atteigne 500 tweets. Vous pouvez vérifier la longueur du nombre de marchandises, phase deux, qui est 500. Vous pouvez vérifier un échantillon deux, c'est aussi, donc ce sont de vraies grilles que les gens tweetent en ce moment sur un vaccin secret. Comme vous pouvez le voir, ce tweet dit seigneur de personnages spéciaux comme l'grappe à grappe. Au rythme, nous pouvons utiliser Python, relais, let-expression périodique, deux broches qui poids. Donc on n'a pas vraiment regardé. Nous recevrons des tweets un par un, les convertis en minuscules, supprimeront tous les caractères John. Vous pouvez en savoir plus sur l'expression régulière et comprendre comment traiter différents types de texte. Nous pouvons prendre un échantillon à manger après le nettoyage. Vérifions celui-là. Voyez que c'est gagné du tout. Les personnages spéciaux ont disparu. Nous avons appris des techniques vidéo pour déployer les fichiers marinés, comme avoir des iPA risqués sont des EPA sans serveur pour ce laboratoire, nous allons simplement Lord les fichiers cornichons à deux variables et les utiliser pour importer topique. Et nous avons abaissé notre modèle TF-IDF à une autre variable. Déclarons deux variables pour garder une trace des tweets positifs et négatifs. Ensuite, nous regardons à la liste Twitter et en utilisant classificateur méthode de prédiction point permettra de prédire le sentiment pour chaque tweet. Et avant le montage qui prend au classificateur devra appliquer le modèle TF-IDF pour le convertir au format numérique. Laissons ça. Après cela, nous obtiendrons l'UIDCount positif et négatif. Voyons combien de positifs mais deux, c'est sous vaccin, c'est 97 et puis 403 négatifs deux. C' est donc le sentiment du texte analysé pour les 500 derniers tweets. 7. Créer un classificateur de texte avec PyTorch: Voyons maintenant comment créer un classificateur de texte point en utilisant au toucher. Si vous êtes nouveau pour l'acheter Deep Learning, vous pouvez consulter notre autre cours sur l'apprentissage automatique, déploiement de modèles Deep Learning. Les stapes pour le prétraitement et le nettoyage du texte sont les mêmes que ce que nous avons fait précédemment. Une fois que vous avez le corpus obtenir du texte, vous pouvez utiliser le vecteur TFIDF Asie pour créer un tableau numérique. Et puis après cela, vous pouvez faire le test de train split en utilisant scikit-learn. Après cela, au lieu de créer un modèle en utilisant la technique du voisin le plus proche, nous allons utiliser Python pour construire un classificateur de texte. Importez la responsabilité requise pour le toucher. Vous devez convertir x et y variable au format tenseur. Une chose à noter ici, c'est que nous avons au total 1000 phrases dans le corpus. Ils ont 467 caractéristiques. Ce sont donc les vectorisés vers maintenant qui déterminent nos sites de nœuds d'entrée auront une taille d'entrée de 467, car il y a 467 watts ou entités dans ce corpus de texte. La taille de sortie serait de deux parce que vous prédites que le sentiment est positif ou négatif. Eh bien, nous pouvons essayer avec différentes tailles cachées. Laisse-moi essayer avec 500. Similaire à l'exemple précédent, nous avons deux couches cachées, aura trois couches entièrement connectées, entrée cachée, cachée à cachée. Et puis il a fait la sortie finale. Donc, le seul changement ici est le gestionnaire de taille d'entrée caché sage. Les autres étapes sont discutées plus tôt pour définir la classe de modèle. Ensuite, vous définissez l'optimisation de votre taux d'apprentissage. Disons une centaine d'époques cette fois. Et maintenant, formons le réseau neuronal. Vous verrez que la perte est minimisée. Et maintenant, le modèle est formé et prêt pour la prédiction. Nous pouvons prédire la façon dont nous avons prédit notre plus tôt. Nous allons avoir un exemple de phrase le convertir au format numérique. Et nous devons convertir cette phrase en un format plus dense. Après cela, vous pouvez prédire en utilisant la classe de modèle Python. De cette sortie, nous pouvons voir qu'il s'agit d'une phrase positive parce que le deuxième élément est plus élevé que le premier. Si nous avons une autre phrase similaire à celle que nous avions plus tôt, qui est une phrase négative, alors obtiendra la sortie dans laquelle le premier élément sera plus élevé que le second. C' est donc une phrase négative. Maintenant, vous pouvez exporter le dictionnaire et intégré avec le programme d'analyse des sentiments des tuteurs. Si vous êtes plus intéressé à apprendre comment déployer au toucher Madelon, Comment créer des GPA de risque à partir de votre modèle tactile. Ensuite, vous pouvez consulter notre autre cours sur l'apprentissage automatique, déploiement de modèles d'apprentissage profond. 8. Créer un classificateur de texte avec TensorFlow: Maintenant, laissez-nous comprendre comment créer un classificateur de texte en utilisant des caméras TensorFlow. Donc, une fois que nos données sont prêtes, nous pouvons créer un modèle TensorFlow. Comme dans les exemples précédents, nous allons créer deux couches cachées et une couche en sortie aura 500 nœuds dans chaque couche cachée et loci intensifs. Attendu que vous n'avez pas besoin de spécifier la couche en entrée car elle déterminera automatiquement cela à partir des données en entrée. Entraînons maintenant le modèle avec 100 époques. Quel est le modèle qui a été formé ? Peut prendre la perte et, et aussi prendre le modèle quelqu'un. Maintenant, nous pouvons prédire la façon dont nous avons prédit plus tôt pour les modèles KnN ou Python. Avoir un exemple de phrase. Convertissez-le au format numérique. Ensuite, en utilisant la méthode TensorFlow model.predict, vous prédites cette intime. C'est 0,79. Donc ça veut dire que c'est une phrase positive. De même, pour l'autre, nous avons une cellule exposant très faible nombre moins 07. Donc c'est une phrase négative. Maintenant, vous pouvez enregistrer et exporter ce modèle et intégrer avec le programme d'analyse de sentiment. Si nous sommes plus intéressés à savoir comment créer des EPA de risques pour les modèles TensorFlow sur la façon de déployer un modèle TensorFlow. Ensuite, vous pouvez consulter notre autre cours sur l'apprentissage automatique et le déploiement de modèles d'apprentissage profond. Merci de vous inscrire à ce cours.