Introducción a la inteligencia ArtificiaI, el aprendizaje automático y Python | Timur K. | Skillshare
Menú
Buscar

Velocidad de reproducción


  • 0.5x
  • 1x (Normal)
  • 1.25x
  • 1.5x
  • 2x

Introducción a la inteligencia ArtificiaI, el aprendizaje automático y Python

teacher avatar Timur K., Teacher, Life-Long Learner, Traveller

Ve esta clase y miles más

Obtenga acceso ilimitado a todas las clases
Clases enseñadas por líderes de la industria y profesionales activos
Los temas incluyen ilustración, diseño, fotografía y más

Ve esta clase y miles más

Obtenga acceso ilimitado a todas las clases
Clases enseñadas por líderes de la industria y profesionales activos
Los temas incluyen ilustración, diseño, fotografía y más

Lecciones en esta clase

    • 1.

      Introducción

      4:13

    • 2.

      Historia de la inteligencia artificial

      11:28

    • 3.

      Diferencia entre la IA, el aprendizaje automático y el aprendizaje profundo

      13:29

    • 4.

      Aprendizaje automático supervisado vs no supervisado

      8:40

    • 5.

      Regresión lineal y predicción de precios planos en Excel

      5:29

    • 6.

      Problemas de clasificación en el aprendizaje automático

      4:14

    • 7.

      Clúster en el aprendizaje automático

      3:59

    • 8.

      Métodos de ensamblaje en el aprendizaje automático

      3:57

    • 9.

      Embolsado y fortalecimiento

      2:47

    • 10.

      Votación y promedios de mayoría en Ensembling

      2:13

    • 11.

      Bosques aleatorios

      2:21

    • 12.

      Configuración de Python. Distribuidor de Anaconda

      4:05

    • 13.

      Comandos básicos en Python

      7:08

    • 14.

      declaración condicional

      6:20

    • 15.

      Mientras que declaración

      7:02

    • 16.

      Predicción de precios planos con regresión lineal en Python

      14:00

    • 17.

      Predice el PIB del país sobre la base de los precios del petróleo

      6:28

    • 18.

      Predicción de los supervivientes del Titánico: tarea de clasificación

      13:16

    • 19.

      Red neuronal: crea tu propia red neuronal para clasificar las imágenes

      21:58

    • 20.

      Redes neuronales para análisis de texto

      4:55

    • 21.

      Redes neuronales para el análisis de sentimientos (reseñas de películas IMDB)

      9:42

  • --
  • Nivel principiante
  • Nivel intermedio
  • Nivel avanzado
  • Todos los niveles

Generado por la comunidad

El nivel se determina según la opinión de la mayoría de los estudiantes que han dejado reseñas en esta clase. La recomendación del profesor o de la profesora se muestra hasta que se recopilen al menos 5 reseñas de estudiantes.

656

Estudiantes

1

Proyectos

Acerca de esta clase

Aprende a entender los algoritmos de inteligencia artificial y aprendizaje automático, y aprende los conceptos básicos de la programación de Python

La inteligencia artificial ya se ha convertido en una parte indispensable de nuestra vida cotidiana, ya sea cuando navegamos por Internet, compramos en línea, vemos videos e imágenes en redes sociales e incluso cuando manejamos un coche o utilizamos nuestros teléfonos inteligentes. La IA es ampliamente utilizada en medicina, previsión de ventas, industria espacial y construcción.

Dado que estamos rodeados de tecnologías de IA en todas partes, necesitamos entender cómo funcionan estas tecnologías. Y para tal comprensión a un nivel básico, no es necesario tener una educación técnica o de TI.

***

En este curso aprenderás sobre los conceptos fundamentales de la inteligencia artificial y el aprendizaje automático. Te familiarizarás con sus principales tipos, algoritmos y modelos que se utilizan para resolver problemas completamente diferentes. Incluso crearemos modelos juntos para resolver ejemplos prácticos específicos en Excel - para aquellos que no quieren programar nada. Y para aquellos que quieren familiarizarse con Python , un lenguaje de programación que resuelve más del 53% de todas las tareas de aprendizaje automático hoy, en este curso encontrarás clases para familiarizarte con los conceptos básicos de la programación en este idioma.

**

Este curso puede convertirse en un tipo de trampolín para el desarrollo de su carrera en el campo de la IA y el aprendizaje automático. Después de dominar este curso corto, podrás elegir el área particular en el que te gustaría desarrollar y trabajar más.

Cabe mencionar que los especialistas en IA y Machine Learning se encuentran entre los más cotizados y buscados en el mercado (según varias estimaciones, hoy en día hay cerca de 300.000 expertos en IA en el mercado, mientras que la demanda de ellos es de varios millones).

**

Después de completar este curso, podrás comunicarte libremente sobre temas relacionados con la inteligencia artificial, el aprendizaje automático y profundo, y redes neurales.

***

Pase una hora estudiando este curso para obtener nuevas habilidades o mejorar las habilidades existentes y ampliar sus horizontes utilizando el conocimiento adquirido.

¡Nos vemos dentro del curso!

Conoce a tu profesor(a)

Teacher Profile Image

Timur K.

Teacher, Life-Long Learner, Traveller

Profesor(a)

I'm an MA graduate with degrees in International Relations and World Economy. Learning foreign languages, travelling and working in cosmopolitan environments has always been indispensable part of my life.

My work experience includes working on challenging projects for government and private sectors (security products, banking, investment) across 5 continents, including Africa, Middle East, South-East Asia and Americas, and internship at the UN Office in Geneva, Switzerland.

I'm totally passionate about psychology, craftsmanship, motivation, skills, and languages - I speak English, Russian, French, Turkish and little Arabic, I also started learning Hungarian a while ago:). I'm keen on reading, sports, football, and playing the guitar.

I'm always eager to learn new... Ver perfil completo

Habilidades relacionadas

IA e innovación Fundamentos de la IA
Level: All Levels

Valoración de la clase

¿Se cumplieron las expectativas?
    ¡Superadas!
  • 0%
  • 0%
  • Un poco
  • 0%
  • No realmente
  • 0%

¿Por qué unirse a Skillshare?

Mira las galardonadas Skillshare Originals

Cada clase tiene lecciones cortas y proyectos prácticos

Tu membresía apoya a los profesores de Skillshare

Aprende desde cualquier lugar

Ve clases sobre la marcha con la aplicación de Skillshare. Progresa en línea o descarga las clases para verlas en el avión, el metro o donde sea que aprendas mejor.

Transcripciones

1. Introducción: Hola a todos, todos, y me alegra ver dentro de estos núcleos inteligencia artificial, machine learning, deep learning, redes neuronales y big data. Todos estos términos y tecnologías se están utilizando cada vez más a menudo en estos días. Hace apenas 40 años, sólo podíamos leer sobre estas cosas en algunos libros o revistas futuristas mientras que ahora, las entendemos o no, ya se están convirtiendo en una parte importante de nuestra vida cotidiana. Cuando la investigación para noticias, los agregadores de noticias en Internet nos muestran exactamente las noticias que nos podrían interesar más . Sucede lo mismo en redes sociales en los servicios de música de YouTube, donde estamos mostrando exactamente esos videos, canciones o imágenes que muy probablemente te gusten. Las computadoras ya pueden reconocer nuestro discurso, y la traducción automática de Google translate funciona mucho mejor que hace apenas cinco años . Las técnicas de reconocimiento de imagen y medio ambiente se utilizan en los autos autónomos que ya circulan por ahí, son muy ciudades en el número de autos autónomos, va en aumento, obtienen un espacio tremendo, y casi todos los fabricantes de automóviles están desarrollando esta tecnología. Además, IA es utilizada por los bancos para decidir la valía crediticia fuera de una posible guerra de guerra departamentos de ventas y marketing en las empresas la utilizan para predecir ventas y hacer recomendaciones más personalizadas para cada cliente. Enormes presupuestos se gastan en publicidad dirigida, que se está volviendo cada vez más focalizada. Gracias a las tecnologías de aprendizaje automático. E. Me vuelvo especialmente relevante en medicina, donde las redes neuronales pueden detectar la presencia de enfermedades graves con mucha más precisión que los médicos más profesionales. Como se puede ver, el rango de uso de la IA es muy extenso, y estas tecnologías ya se utilizan en múltiples industrias y como el rango de uso abarca casi todas las áreas, esto requiere un gran número de especialidades quienes están bien redondeados en cómo funcionan sus algoritmos de inteligencia divisional y aprendizaje automático. Y por eso hoy, todo aquel que quiera desarrollar a su portador necesita tener un sacerdote, un entendimiento básico, tos, inteligencia artificial y aprendizaje automático. Según diversas estimaciones, sólo hay alrededor de 300 mil expertos en IA en todo el mundo, y de éstos, sólo 10 mil son profesionales muy fuertes que trabajan en proyectos a gran escala. Se estima que en un futuro muy cercano, la demanda de este tipo de especialistas crecerá a 30 millones de personas y seguirá creciendo en el futuro, lo que significa que es para Ahora hay una enorme escasez de expertos que entienden y son capaces de trabajar con las tecnologías tanto de IA como de aprendizaje automático. Muchos gigantes tecnológicos como Google, Netflix, Alibaba, Tencent, Tencent, Facebook se quejaron de la falta de especialista de clase alta y los salarios por este tipo de vacantes son uno de los más altos del mercado hoy en día, sobre todo con dos o tres años de experiencia en el ámbito del Big Data. Y la IA puede recibir más de 150.000 dólares al año en América, Europa y China, y el mejor especialista aprendió de un millón de dólares al año y más. No hace falta decir de las numerosas starups en el ámbito de la IA, que se lanzan cada semana y atraen enormes rondas de inversiones, las para resumir A ya se utiliza en nuestras vidas por muchas empresas y servicios. A veces incluso cuando no lo notamos. En general, hace que nuestra experiencia fuera de contrato incluya la calidad circundante, más personalizada y conveniente. Son muchas las áreas e industrias donde se puede poner en práctica el Norwich off a I, y hay una evidente escasez de especialistas en este campo, y estarán en demanda en las próximas dos décadas, al menos en este curso, darás la idea básica de lo que te dice un auto de aprendizaje automático y yo sobre sus principales inmersiones. Algoritmos, que los modelos te muestran dónde buscar datos para análisis y práctica contigo. Cómo resolver algunos problemas reales de aprendizaje automático. También te brindaremos una breve introducción a usar el por teléfono, que es un lenguaje de programación utilizado para construir la mayoría de maquinaria en fondles. Después de aprobar este curso, podrás comunicarte libremente sobre estos temas, y podrás construir tus propios modelos predictivos de aprendizaje automático simple C dentro del curso. 2. Historia de la inteligencia artificial: en los últimos años, los términos inteligencia artificial,aprendizaje automático, aprendizaje automático redes neuronales, big data se han convertido quizás en uno de los temas más discutidos en todo el mundo hoy. En las personas perezosas no están hablando de un I. Sin embargo, hay que recordar que la inteligencia artificial no es algo que tú y esta disciplina ha existido desde hace varias décadas. Fue a mediados del siglo XX cuando los científicos comenzaron a pensar en si las máquinas pueden tener inteligencia. Ya en 1950 el matemático inglés voluntario propuso esa prueba de audición, cuyo propósito era determinar si una máquina puede pensar y engañar a una persona, haciéndole creer que se está comunicando con la misma persona que él y no con la computadora. En ese mismo año, el escritor de ciencia ficción I Sock Ising Off presentó las tres Leyes de la Robótica, en las que indicó cuál debería ser la relación entre humanos y robots. En 1955 un grupo de científicos realizó un seminario donde discutieron el futuro de las computadoras. Uno de los presentes fue John McCarty, quien acuñó primero el término inteligencia artificial de IA. Por lo tanto, es 1955 el que se considera como el año libre del nacimiento de un I. Tres años después, el mismo McCarty creó menos el lenguaje de programación, que se convirtió en el lenguaje principal para trabajar con el para los dos siguientes años. En 1956 el ingeniero Artur Samil creó la primera computadora autoextranjera del mundo que podía jugar a las damas. Las damas fueron elegidas debido a que tenían reglas elementales, y al mismo tiempo, si querías ganarlas, entonces hay que seguir cierta estrategia. Esta computadora, creada por Samil Learn on Simple books, describirá cientos de juegos con movimientos buenos y malos en el mismo año. En 1956 Helber Simon Alan, You Oh y Clifford Chou idearon un programa llamado Las teorías lógicas. Se cree que este es uno de los primeros programas con una I. Las teorías lógicas hicieron un buen trabajo con el limitado rango de problemas, por ejemplo, problemas en geometría e incluso fue capaz de demostrar lo igual, literal teoría del triángulo, um, más elegantemente que su tendencia. Russell. En el año siguiente, 1957 front krosen lot surgió con Perceptron, que era un sistema de aprendizaje que actuaba no sólo de acuerdo con algoritmos y fórmulas dados sino también con base en la experiencia pasada. Es importante señalar aquí que Perceptron fue el primer sistema en utilizar redes neuronales. Incluso entonces, los científicos entendieron que algunos problemas los vende una persona muy rápidamente mientras toman mucho tiempo de una computadora. Por lo tanto, pensaron que tal vez sea necesario reproducir la estructura del cerebro humano para enseñar el trabajo del dedo del pie de la computadora lo más rápido posible. Llaman a los elementos más simples de las neuronas de Perceptron porque se comportaron de manera similar a las neuronas en el cerebro humano. El modelo de computadora fuera del Perceptron se implementó en 1960 en forma de la primera computadora más nueva, que fue nombrada Mark one. Casi al mismo tiempo, un poderoso instituto fundó un laboratorio. Demos un ejemplo aquí. El interrogante. ¿ Cómo aprenden los niños pequeños? Se les muestra algún tipo de objeto, y dicen que esto es un toro y este un cubo. Después de todo, no le explicamos al niño que el Cubo tiene todos los ángulos fuera 90 decretos y todos los lados son iguales y el balón tiene el concepto de radios de diámetro, por lo tanto, la cáscara simple mira a un montón de similares objetos. Mucha cantidad de bolas diferentes y otros objetos una máquina de escribir, una mesa, un avión de nosotros obtenemos. Y después de un tiempo, el niño comienza a distinguir independientemente todo este objeto, aunque sean de un color diferente o ligeramente diferentes en su forma. Cuando el algoritmo informático aprende de un gran volumen de ejemplos, esto se denomina aprendizaje automático. La inteligencia artificial, a su vez, significa que el algoritmo que aprende de los ejemplos puede resolver diversos problemas intelectuales. Entonces pasemos por eso hasta la próxima década. Fue en 1961 cuando General Motors introdujo al primer robot en su proceso de fabricación de automóviles. En 1965 se inventó el primer hijo nacido ELISA . Se suponía que ELISA imitar a un psicoterapeuta que le preguntó al paciente sobre su condición y sugirió posibles soluciones o simplemente pudiera simpatizar con el interlocutor. Resultó que la conversación con personas de ELISA experimentan las mismas emociones y sentimientos que con una persona real. En 1974 se inventó el primer vehículo no tripulado en el laboratorio de la Universidad de Stanford. Pronto se convertiría en el prototipo para los siguientes modelos de esquina en 1978 Douglas Lynn y creó el sistema en guerra Your Risk Mismo. El sistema no sólo aclaró patrones ya conocidos sino que propuso otros nuevos. Pocos años después, te arriesgas a un aprendido a resolver problemas tales como más hacer evolución biológica, Limpieza del servicio de productos químicos, colocación de elementos en circuitos integrados y así sucesivamente. Eres Iskan es un conjunto de reglas lógicas. Si entonces Yuri se pega y gobierna que funciona en muchos casos, pero no en todos. Permite tomar rápidamente una decisión cuando no hay forma de realizar un análisis completo fuera de la situación. Por ejemplo, ¿cómo distinguir los alimentos sabrosos de los insípidos? Si hay azúcar de lo que es delicioso, Funciona, pero no siempre. Por ejemplo, venderlo o carne frita o azúcar también no siempre se mantiene profundo. Por ejemplo, cumplir con el azúcar Los palos de Yuri pueden ser complicados o complementados. Por ejemplo, fruta o alguna combinación de productos puede llegar a ser deliciosa. La propia máquina aprendió a inventarlos a partir de la experiencia. Damos ejemplo, por lo que el algoritmo y ya encuentra patrones. La máquina puede ordenar el look más opciones que las personas. Si a los clientes no les gustó, entonces tal vez esta sea una mala combinación de pato con manzanas. ¿ Qué? No hay fuente suficiente. Entonces pasemos a finales del siglo XX, en 1989 Carnegie Mellon creó un vehículo no tripulado utilizando redes neuronales. En 1988 la computadora de pensamiento profundo juega contra Kasparov, Campeón de Jess, pero pierde ante él después de ocho años. Tienen otro juego en el juego. Kasparov es más fuerte que la computadora, pero sólo el líder del año. En 1997 el altamente actualizado A I D azul de IBM derrota a Gary Kasparov y se convierte en el primer equipo. El triunfo ante el actual campeón mundial de ajedrez, De Boop, trabajó muchas jugadas hacia adelante y tratar de encontrar la jugada más preferida. Escenas de 2000 computadoras han superado consistentemente a los humanos. En 1999 Sunny anuncia al perro Aibo, cuyas habilidades y comportamiento se desarrollan a lo largo del tiempo en el mismo año. Por primera vez, M. I. T mostró una IA emocional llamada Kiss significaba que puede reconocer las emociones de las personas y responder a ellas. Según limpio. En 2000 y dos comienza la producción masiva de Autonomous My Robot Aspiradoras, que pueden moverse por la casa por su cuenta, evitando obstáculos En 2000 y nueve Google se sumaron a la carrera de empresas para desarrollar su propio vehículo no tripulado en 2011. Asistentes virtuales inteligentes como Siri, Google Now y Cortana aparecen en 2014. Alexa, de Amazon, se unirá a ellos y en 2017 al menos de Yandex. Recuerda, hablamos de la prueba de Turing, que fue inventada por el voluntariado en 1950. Se pretendía entender si un yo puedo engañar a una persona y convencerlo de que no es una computadora frente a él por la persona. Por lo que en 2014 el barco infantil informático Eugene Guzmán pasó esta prueba, obligando a 1/3 del jurado a creer que la computadora estaba controlada por una persona, no un I. En 2016 el Google Deepmind con una IA llamada Alphago derrotó hace campeón Go Game es mucho más complicado que el ajedrez. Hay más opciones dentro del juego y sin embargo, go se convirtió en el segundo juego en el que la gente ya no puede ganar. En 2017 ofreció más de 10 años de intentos y sondas. Los dos equipos desarrollaron de forma independiente sus propios modelos de IA, las computadoras Deep Stack y Liberties, que fueron capaces de vencer a los profesionales del poker. A diferencia de ir cofre donde todo está sujeto a reglas estrictas. El factor humano sale a primer plano en el poker porque el poker es en gran medida un juego psicológico basado en las emociones, comunicación no verbal, la capacidad de farol y de reconocer acantilados. Uno de los participantes en un juego de póquer con estas computadoras describe sus impresiones de la siguiente manera. Es como jugar con alguien que ve todos tus autos. No culpo a la red neuronal por platillo. Es que es realmente tan bueno. En 2015 mal desenmascarando Sam Altman presidente Off Y Combinator fundó Open I para crear inteligencia artificial abierta y amistosa. En 2017 el Open I un equipo de desarrollo decidió entrenar en Serial Network en la hija de Juego Eastport más grande , también. En este juego juegan equipos de cinco personas, y utilizan muchas combinaciones de más de 100 héroes. Cada uno de ellos tiene su propio conjunto de habilidades. En dos semanas, la red neuronal pudo aprender y derrotar a varios de los mejores jugadores del mundo en un solo estado de ánimo, y ahora sus creadores se están preparando para lanzar una versión para el modo principal. Cinco por cinco. Nos acercamos aún más a nuestros días a principios de 2018. Los algoritmos de Taliban Microsoft sorprenden a la persona en la prueba por comprensión de lectura en marzo de 2018 a un pequeño robot que similar al Cubo de Rubik en tan solo tu 20180.38 segundos. El récord entre las personas antes de eso fue de 4.69 segundos. Uno de los avances más importantes en el desarrollo fuera de la IA, que puede traer muchos beneficios a la humanidad, fue que en mayo de 2018 la inteligencia artificial se volvió mejor que las personas para reconocer el cáncer de piel . Además de reconocer enfermedades en pacientes, hoy en día se utilizan algoritmos para estudiar el plegado de proteínas. Tratan de encontrar la cura para el Alzheimer y la enfermedad de Parkinson también se utiliza para reducir consumo de energía y para crear nuevos materiales revolucionarios. La inteligencia artificial también se utiliza activamente en los negocios. Los bancos lo utilizan para aprobar préstamos a empresas minoristas, lo utilizan para campañas publicitarias más dirigidas y ofertas para sus clientes. ¿ Por qué exactamente en nuestro tiempo? A. Empecé a recoger hablar tan rápido. Son dos las razones para ello. En primer lugar, ahora se produce una enorme cantidad de información en el mundo cada dos años. El volumen de información que el mundo duplica. Y como sabemos, IA está aprendiendo de los datos disponibles y la segunda razón es la presencia de un fuerte poder informático. Nuestras computadoras hoy en día son lo suficientemente fuertes como para poder procesar enormes problemas fuera de la información en un tiempo bastante limitado. Por lo que miramos una breve historia del desarrollo off a I. En una de las conferencias Full Inc, veremos qué se puede esperar del desarrollo off en el futuro. 3. Diferencia entre la AI, el aprendizaje automático y el aprendizaje profundo: hoy en día, los términos inteligencia artificial, machine learning, deep learning, redes neuronales y big data son muy comunes o a partir de estos términos se utilizan indistintamente. Y aunque realmente están muy conectados, veamos qué significa cada uno de estos conceptos y cómo se diferencian entre sí. En primer lugar, para acortarlo muy corto, IA es una industria bastante amplia, que la resistencia cubre tanto el aprendizaje automático puede El aprendizaje profundo de máquinas es una parte Considine de la IA, y el deep learning es una parte constituyente del aprendizaje automático. La inteligencia artificial implica que una computadora puede realizar tareas similares que una persona puede realizar y escucharlas africanas pronto. No es sólo en acciones mecánicas. Por ejemplo, tomar puede curar algún objeto pero tareas que requieren de pensamiento intelectual. Ahí es cuando se necesita tomar la decisión correcta, por ejemplo, que nosotros podemos estar demasiado en ajedrez o reconocer lo que se muestra en la imagen o entender lo que dijo el orador y dar la respuesta correcta. Para ello. A la computadora se le da mucha fruta o algoritmos siguiendo los cuales puede resolver este tipo problemas intelectuales. Puedo ser débil o también se llama ai estrecho que es cuando la máquina sólo puede hacer frente a un tipo limitado de prueba mejor que una persona, por ejemplo, por ejemplo, reconocer lo que hay en la imagen o jugar ajedrez y gemelo. Ahora estamos en esta misma etapa del desarrollo off a I. La siguiente etapa es la IA General. Cuando el puede resolver cualquier problema intelectual así como persona en la etapa final. Es una fuerte inteligencia artificial. Cuando la máquina hace frente a la mayoría, pide mucho mejor que una persona. Como ya hemos dicho, inteligencia artificial es un área bastante vasta del conocimiento. No cerró el siguiente cuidado s procesamiento del lenguaje natural cuando la computadora debe entender lo que está escrito y dar la respuesta correcta y relevante. Esto también incluye traducciones de texto e incluso compilación de texto complejo por computadoras, segundos expertos o sistemas informáticos que de manera similar, la capacidad de una persona para tomar decisiones utilizando principalmente las reglas if then. En lugar de usar algún tipo de discurso frío, la computadora debe reconocer este discurso de las personas y poder hablar siguiente una computadora visión por computadora debe reconocer ciertos objetos en la imagen o cuando se están moviendo. robótica también es área muy popular fuera de a. I. La creación de robots que pueden realizar Hay funciones que incluyen mover lata comunicándose, superando obstáculos, planeación automatizada. Por lo general, es utilizado por robots autónomos y vehículos aéreos no tripulados cuando necesitan aprendizaje automático para realizar infecciones de secuencia, especialmente cuando ocurre en un espacio multidimensional y cuando tienen que resolver problemas complejos . Y por último, aprendizaje automático apareció después de que habíamos intentado durante mucho tiempo hacer que nuestras computadoras fueran más inteligentes, dándoles cada vez más reglas y regulaciones. No obstante, no fue tan buena idea porque tomó una enorme cantidad de tiempo y no pudimos llegar a reglas para cada detalle y para cada situación. Y luego a los científicos se les ocurrió la idea. ¿ Por qué no probar los algoritmos que aprenden de forma independiente en función de su experiencia? Así nació el aprendizaje automático. Es entonces cuando las máquinas pueden aprender de grandes conjuntos de datos en lugar de instrucciones explícitamente escritas . Y Truls Machine Learning es la era de la IA, donde entrenamos nuestro algoritmo usando conjuntos de datos, haciéndolo mejor, más preciso y más eficiente con el aprendizaje automático. Nuestros algoritmos están entrenados en datos, pero sin instrucciones preprogramadas, es decir, le damos a la máquina un gran conjunto de datos y decimos las respuestas correctas. Y entonces la propia máquina crea algoritmos que satisfagan estas respuestas. Y con cada nueva cantidad adicional de datos, las ametralladoras aún más y sigue mejorando su predicción. Precisión. Si tomamos pecho en la programación de tradición o en un programa llamado A le daría a la máquina el conjunto de reglas lógicas y en base a ellas, es aprender a jugar en el ejemplo de la máquina. Aprender es cuando le damos a la máquina el conjunto de ejemplos de juegos pasados que toma, les recuerda y analiza por qué algún jugador swing y otros cuyos pasos conducen al éxito y quieren derrotar. Y a partir de estos ejemplos, la propia máquina crea algoritmos y reglas sobre cómo jugar al ajedrez para ganar. En un ejemplo, supongamos que necesitamos entender cómo se comportará el precio de un departamento al cambiar ciertos parámetros. Por ejemplo, dependiendo de la zona, la distancia del metro número de historias de la casa y así sucesivamente. No cargamos datos de diferentes departamentos en la computadora, creamos un modelo mediante el cual será posible predecir precios dependiendo de estos factores, actualizamos regularmente los datos, y nuestro algoritmo será entrenado en base a estos nuevos datos, y cada vez mejorará su precisión de predicción. deep learning es el subsector del machine learning, donde la computadora aprende pero aprende un poco de una manera diferente a la de la máquina estándar . Aprendizaje. Deep Learning utiliza redes neuronales, que representan algoritmos que repiten la lógica de las neuronas humanas en el cerebro. Grandes cantidades de datos mejor para estas redes neuronales y en la salida se les dio las respuestas a la tarea. Las redes neuronales son mucho más difíciles de comprender el aprendizaje automático inusual, y no siempre podemos entender qué factores tienen más peso en el inicio. Pero el uso de redes neuronales también ayuda a resolver problemas muy complicados. A veces las redes neuronales incluso se llaman la caja negra porque no siempre podemos entender lo que está sucediendo dentro de estas redes. Supongamos que su computadora evalúa qué tan bien se escribe un ensayo. Si estás usando deep learning, la computadora te dará la decisión final de que el ensayo es bueno o no, y probablemente la respuesta sería muy similar a cómo lo calificaría una persona. Pero no se podrá entender por qué se tomó tal decisión, pues deplorar utiliza múltiples niveles fuera de las redes neuronales, lo que dificulta mucho su interpretación. No sabrás qué nota de la red neuronal se activó y cómo se comportan juntas las nieves para lograr este resultado. ¿ Dónde está si usa el aprendizaje automático, por ejemplo, el algoritmo de un árbol de decisiones? Entonces se puede ver qué factor jugó un papel decisivo en la determinación de la calidad de su opinión. Por lo que las redes neuronales se conocen desde el siglo XX, pero en ese momento no eran tan profundas. Sólo había una o dos capas, y no dieron resultados tan buenos como otros algoritmos fuera del aprendizaje automático. Por lo tanto, por algún tiempo, las redes neuronales se desvanecieron en segundo plano. No obstante, se han popularizado recientemente, todo desde alrededor de 2000 y seis, cuando aparecieron enormes conjuntos de datos y fuertes capacidades informáticas en particular tarjetas gráficas y procesadores potentes, que llegó a ser capaz de crear capas más profundas fuera de las redes neuronales y hacer cálculos de manera más rápida y eficiente. Por las mismas razones. El Poulenc es bastante caro porque, primer lugar, es difícil recopilar big data en artículos específicos y en segundo lugar, las capacidades informáticas serias de las computadoras también son costosas para acortarlo. ¿ Cómo se supone la rareza deplorable? Nuestra tarea es calcular cuántas unidades de transporte y qué transporte particular es . Autobuses, camiones, autos o bicicletas pasaban por una determinada carretera por día con el fin de distribuir carriles para diferentes tipos de vehículos. Para ello, necesitamos enseñar a nuestra computadora a reconocer tipos de transporte. Si resolviéramos este problema con la ayuda del aprendizaje automático, escribiríamos un algoritmo que indicaría la heurística correcta de autos, autobuses, camiones y bicicletas. Por ejemplo, si el número de ruedas es a entonces es una bicicleta. Si la longitud de un vehículo es superior a 56 metros, entonces es un camión o un autobús. Si hay muchas ventanas, entonces es un autobús insolente. Pero como saben, hay mucha gente. Por ejemplo, el autobús se puede teñir, y será difícil entender dónde están las ventanas o un camión puede parecer un autobús o viceversa. En Florida, camionetas se ven como algunos camiones pequeños, y puede ser difícil para la computadora distinguir entre una bicicleta y una moto. Por lo tanto, otra opción para resolver este problema es subir un gran número de imágenes con diferentes tipos de transporte a nuestra computadora y aparentemente decirle qué imágenes representan la bicicleta, coche, camión o un autobús. El propio equipo comenzará a seleccionar las características por las que puede determinar qué tipo de transporte se representa y cómo se pueden distinguir entre sí. Después de eso, subiremos algunas imágenes más y probaremos qué tan bien la computadora hace frente a la tarea. Si comete un error, le diremos que aquí cometiste un error aquí. No es un camión, es de nosotros. El pasante de informática volverá a los algoritmos de sus. Esto se llama por el camino de regreso propagación y hacer algunos cambios allí, y vamos a empezar de nuevo en un círculo hasta que la computadora comience a adivinar lo que se muestra en la imagen con una precisión de predicción muy alta. A esto se le llama aprendizaje profundo basado en redes neuronales. Como usted entiende, esto puede tardar bastante tiempo, tal vez varias semanas, dependiendo de la complejidad de la tarea. También requiere una gran cantidad de datos. Es deseable que haya al menos millones de imágenes fuera, y todas estas imágenes o bien deben estar marcadas, pues debe hacerlo una persona, pero va a llevar mucho tiempo. Está bien. Entonces, para resumir, deep learning es una rama del machine learning, y ambos caen bajo la definición más amplia de Inteligencia artificial Machine Learning utiliza algoritmos para aprender de los datos y tomar decisiones informadas o predicciones en lo que ha aprendido. El aprendizaje profundo hace lo mismo ya que también es una variación del aprendizaje automático. Pero lo que es diferente es que el deep learning utiliza algoritmos, que se estructuran en varias capas para crear una red neuronal artificial que también puede aprender y tomar decisiones inteligentes. Máquina Lauren se puede utilizar con pequeños conjuntos de datos y en pequeñas cantidades de datos. torbellino de máquinas y el aprendizaje profundo tienen una precisión de predicción casi similar pero con cantidades crecientes de datos. El aprendizaje profundo también es mucho mayor precisión de predicción en el aprendizaje automático. Nosotros mismos dijimos las características en las que se basarán nuestros algoritmos en el ejemplo con determinar el precio de un departamento, nosotros mismos indicamos los parámetros cuándo dependerá el precio. Por ejemplo, el metraje distancia de la edad del metro del área de la casa y así sucesivamente. Y en el aprendizaje profundo, la computadora o uno podría decir red neuronal misma, por ensayo y error surge con ciertos parámetros y el peso de tu que dependerá nuestra salida . En cuanto a los algoritmos de tiempo libre de lording, deep learning suele tardar más que el machine learning, descifrar o interpretar sus algoritmos fuera del machine learning es más fácil porque vemos qué perímetro juega un papel importante en determinando la salida. Por ejemplo, en dimensional determinando el precio de un departamento, podemos ver que el peso del metraje en el precio es, digamos, 60% en aprendizaje profundo. Descifrar exactamente lo que llevó a tal resultado a veces puede ser muy difícil porque hay varias capas fuera de las redes neuronales y muchos parámetros que la computadora puede considerar importantes, pero que no necesariamente vemos. Es por eso que, como dijimos antes, aprendizaje profundo a veces se llama los libros negros, ya que no sabemos qué parámetros fueron considerados importantes por la máquina en el aprendizaje profundo . Por lo tanto, el uso de comisión deplora durante dependerá también del propósito de su tarea. Por ejemplo, si necesitas entender por qué la computadora tomó esta o aquella decisión qué factor jugó un papel importante, entonces necesitarás hacer es machine learning en lugar de deep learning. Dado que la implementación requiere mucho más datos así como capacidades informáticas más poderosas de la computadora, y en general, tarda más tiempo en aprender. También es más caro en comparación con el aprendizaje automático. De esta manera, si resumimos toda la conferencia, entonces donde sea que se utilice el reconocimiento de voz o imagen robótica, texto o discurso, interpretación o traducción tableros de gráficos fondo significaba conducir vehículos de llamada predicción de algunos parámetros basados en los datos disponibles. Todos estos ejemplos contienen los elementos I porque la IA es un concepto muy amplio que abarca todas estas áreas. Cuando una computadora imita el pensamiento y el comportamiento de una persona en casos en que en lugar de dar a la computadora instrucciones escritas y verdad para resolver el problema, le damos un conjunto de datos en la computadora, aprende de estos datos, encontrar algunos patrones en los datos y en base a tales Lauren puede entonces hacer predicciones. Dichos casos se conocen como aprendizaje automático, y uno de los métodos de análisis puede. Encontrar patrones en los datos por computadora se llama deplorar, que utiliza varias capas fuera de las redes neuronales artificiales, lo que hace que tales cálculos por un lado, sean más eficientes pero por otro, más difícil de descifrar. Espero que el corto verano haya sido de ayuda. Pero si aún tienes dificultades para entender estos conceptos fuera de la máquina, Gordon puede deplorar. Por favor no dudes en preguntarme en la sección de comentarios fuera de este curso y también siéntete libre seguir viendo los resultados para ellos. Nos vemos en las próximas conferencias. 4. Supervisado con el aprendizaje automático no supervisado: Si te interesó el tema de la inteligencia artificial y el aprendizaje automático, es posible que ya te hayas topado con este tipo de conceptos un aprendizaje supervisado y un aprendizaje no supervisado . En este video, vamos a aprender cómo difieren estos dos nombres. En primer lugar, ambos son tipos de aprendizaje automático. En segundo lugar, aprendizaje supervisado no implica necesariamente que alguien esté parado detrás de la computadora y controle cada acción. Aprendizaje resumido significa que ya hemos preparado los datos para seguir trabajando en la computadora, es decir, cada objeto tiene una etiqueta. El rótulo distingue al sujeto de otros objetos o le da algún nombre o valor numérico . Y la computadora puede encontrar veteranos entre las características fuera de los objetos en sus nombres basados en estos preparados o, como se les llama datos etiquetados. El aprendizaje supervisado incluye dos tipos principales de tareas. Progresión y clasificación. Veamos un ejemplo típico Problema de sobreclasificación. Este es un ejemplo del conjunto de datos de flores irlandesas introducido por el estadístico y biólogo británico Ronald Fisher en su trabajo de 1936, este conjunto de datos ya se ha vuelto clásico y se utiliza a menudo para ilustrar el trabajo de muy estadístico algoritmos. Lo puedes encontrar por la pista indicada en la pantalla o simplemente por Google a los niños en Internet. Entonces echémosle un vistazo en la naturaleza. Existen tres tipos de flores de iris. Se diferencian entre sí en cuanto al tamaño del pétalo y las muestras. En la tabla se enumeran las características de las flores. En las columnas se indica la longitud y anchura del pétalo, así como la longitud y anchura de las muestras. El último maíz muestra uno de los tres tipos de Cerezas Sentosa irlandesa, Iris, Virginia e Iris Vertical son estos nombres Off types son etiquetas para nuestro detalle. En base a estos, dijeron datos, necesitamos construir regla de desclasificación que determine el tipo de flor dependiendo de su tamaño. Esta es la tarea fuera de la clasificación multiclase, ya que existen clases gratuitas tres tipos de flores de Ari. En algoritmo de clasificación, dividimos nuestros iris en tres tipos, dependiendo de la longitud y anchura de la batalla y las muestras. La próxima vez, si vienes, cruzar eres es harina. Con la ayuda de nuestro modelo, podemos predecir de inmediato a qué jugadas pertenecen estas flores. ¿ Por qué consideramos este ejemplo un aprendizaje supervisado? Porque por cada flor en nuestro entrenamiento Data dijo. Tenemos una etiqueta, ya sea irlandesa, Sentosa, IRS, Virginia Iris particular, es decir Actuamos como maestra y enseñamos nuestro modelo hasta que si ves que la ciencia de la pétalo es tal y tal, y las muestras son tal y tal, entonces esto es iris para Jessica. Y si la ciencia es tal y tal, entonces esto es Iris, donde secuela o esto se llama aprendizaje supervisado. O a veces se llama Curva de Aprendizaje un profesor cuando mostramos a nuestro modelo todas las respuestas, dependiendo de las características que el modelo esté llevando en estos datos y crear una fórmula o algoritmo que nos ayude en el futuro a predecir el tipo de un nuevo flor dependiendo de su tamaño. Además de los problemas de clasificación, que acabamos de mencionar con el ejemplo de las flores del artista, existe otro tipo de aprendizaje supervisado. Se llama regresión en problemas de clasificación. Tenemos varias clases de objetos donde está en problemas de regresión. Tenemos una sola clase, pero cada objeto es diferente de los demás, y necesitamos predecir el número concreto o el valor concreto de un nuevo objeto para objetos dependiendo de sus características y en base al conjunto de datos que proporcionará a nuestro computadora. El ejemplo clásico de progresión es cuando predecimos el precio de un departamento, dependiendo conecta metraje. Por lo que tenemos algún tipo de tabla con los datos de diferentes departamentos. En una columna está el metraje, y otra es el precio de estos departamentos. Este es un ejemplo muy simplificado de progresión, obviamente, de que el precio de un departamento dependerá de muchos otros factores, como ubicación, calidad del edificio, número de historias y demás. Pero sin embargo, demuestra claramente qué es la regresión. Por lo que en la última columna, tenemos los precios reales o reales de los departamentos. Nos dieron imágenes. ¿ Por qué se supervisa el aprendizaje? Porque nosotros, como maestro, mostramos a nuestra modelo que si ves que el metraje es tal y tal, entonces el precio será sargento. Tal el precio X like label para cada objeto en nuestro conjunto de datos y siempre que Diddy lo etiquetara , es un caso de aprendizaje supervisado. partir de estos datos, el modelo aprende y luego produce un algoritmo basado en el cual podemos predecir cuál será el precio del departamento dependiendo de un metraje dado, así para resumir en aprendizajes supervisados. El punto clave es que hemos etiquetado datos en nuestro conjunto de datos. Es decir, cargamos datos con respuestas en nuestro modelo, ya sea la clase a la que pertenece el objeto o se trata de un número específico, como en el caso del precio del apartamento, dependiendo del metraje basado en este información, el modelo aprende y crea un algoritmo que puede hacer predicciones. Está bien, así que sigamos adelante. El segundo tipo de aprendizaje automático es el aprendizaje no supervisado. Esto es cuando permitimos que nuestro modelo aprenda de forma independiente y encuentre información que puede no ser visible para una persona. A diferencia de los modelos de aprendizaje supervisados que se utilizan en el aprendizaje no sorprendido derivan patrones y hacen conclusiones basadas en datos no etiquetados. Recuerda, tuvimos un ejemplo con flores de iris. Entonces en los conjuntos de datos que le dimos a la computadora, hubo respuestas qué tipo de virus tenemos, dependiendo de uno o en otros lados del pedal y muestras y en datos no etiquetados. Tenemos objetos y sus características, pero no tenemos respuesta a qué tipo o clase pertenecen. Por lo tanto sujeto ochenta llamado sin etiquetar en el aprendizaje supervisado, los tipos medios de tareas o clustering y reducción de dimensionalidad. Ya sabes que mostrar la reducción de dimensionalidad significa que eliminamos características innecesarias o redundantes de nuestro conjunto de datos con el fin de facilitar las clasificaciones de nuestros datos y hacerlo más comprensible para su interpretación. Y ahora veamos un ejemplo de contracción cruzada en los problemas del clustering. Contamos con un conjunto de datos de objetos y necesitamos identificar su estructura interna. Es decir, necesitamos encontrar grupos fuera de objetos dentro de estos datos dichos que son más similares entre sí y difieren de otros grupos fuera de objetos del mismo día para establecer, por ejemplo, para ordenar todos los vehículos en categorías todo vehículo similar a una bicicleta en un grupo o clúster y similar a un autobús en un grupo separado. Además, no le decimos a la computadora qué es. Debe entender por sí mismo, para encontrar signos similares e identificar objetos similares en un grupo determinado. Por lo tanto, esto se llama Aprendizaje Sin un maestro fueron aprendizajes no supervisados porque inicialmente no le dijimos a la computadora a qué grupo pertenecen este o esos objetos, Tales tareas pueden ser muy útiles para grandes minoristas, por ejemplo, si quieren entender de quiénes son sus clientes, supongamos que hay un gran supermercado, y para poder hacer promociones dirigidas a sus consumidores, tendrá que desglosarlos en grupos o clústeres. Y si ahora tienen ventas para el buen deporte, solo ellos enviarán los anuncios. No todos los consumidores, pero sólo lo hacen los que ya tienen ambos deportes va en el pasado. Esa es la principal diferencia entre el aprendizaje supervisado y el aprendizaje no supervisado. ¿ Es eso en el aprendizaje supervisado? Utilizamos datos de etiqueta donde cada objeto está marcado y pertenece a una clase en particular o tiene un valor numérico específico. Y en base a estos datos de etiqueta, nuestros modelos de facturas y algoritmo que nos ayuda a predecir resultados sobre nuevos datos y en respuesta a subir el aprendizaje, los datos que tenemos están sin etiquetar o sin marcar en la propia computadora, encuentran ciertos patrones y características comunes, y dividir todos los objetos en diferentes grupos similares dentro de un grupo y diferentes de los objetos de otros grupos. Existen dos tipos principales de aprendizaje supervisado por tareas, que son clasificaciones cuando dividimos nuestra datación con clases y progresión cuando estamos haciendo un pronóstico milagroso basado en datos anteriores. Entre los principales tipos de tareas fuera del aprendizaje no supervisado se encuentran el clustering cuando una computadora divide nuestras citas, los grupos o clústeres y la reducción de dimensionalidad, lo cual es necesario para una demostración más conveniente de grandes cantidades de datos. Bueno, considera cada una de estas tareas con más detalle en las siguientes fracturas. 5. Regresión lineal y prediciendo los precios planos en Excel: por lo que uno de los algoritmos de aprendizaje automático más populares es la regresión. Se trata de una tarea predecir un atributo específico, a menudo objeto utilizando los datos disponibles y otros atributos del objeto. Por ejemplo, podemos predecir el peso de una persona en función de su altura, donde podemos predecir el precio de los departamentos en función de la distancia del metro para el área del departamento. En este episodio, vamos a ver cómo podemos resolver nuestro problema de agresión en archivo ordinario de Excel. Tomemos un ejemplo con la predicción de la costa de un departamento, dependiendo cornets metraje. Toda tarea de aprendizaje automático necesita datos en cuanto más datos, mejor. Por lo que es un agente que tengamos una mesa excel con datos en una columna, el área del departamento en la otra, el precio de este departamento. Nosotros complacemos estos datos en el oficio, y en principio podemos notar que existe cierta dependencia lineal, que está bastante fuera de los porque cuanto mayor sea el área, el corazón, el costo del departamento. Por supuesto, está claro que mucho más factores afectarán el precio de un departamento como la distancia del centro de la ciudad y el número mental de historias, edad de la casa y demás, pero por razones de simplicidad, con igual de un sector, el área del departamento. Por lo que nuestra tarea es aprender a predecir el precio para hacer estos realmente la fórmula, que nos puede dar el precio pronosticado en base al área del departamento. En los casos en que vemos relación Alina, generalmente se usa la siguiente fórmula, razón por la cual es igual a una X Plus B en la que, por qué físico a precio y X es el área. En realidad, la dependencia puede no ser necesariamente lineal. Puede ser una cura o tener un aspecto muy extraño. Por lo que para tener un formal de trabajo concreto son necesitamos encontrar los coeficientes A y B . ¿ Cómo podemos encontrarlos? El peso más fácil y clásico, que probablemente aprendiste en las lecciones de álgebra o estadística, es el método de menos cuadrados. De hecho, este método se inventó hace 200 años, y ahora han aparecido soluciones más efectivas, pero sin embargo, el método menos peor sigue siendo bastante relevante y se usa con bastante frecuencia en regresión problemas. El método menos cuadrado es cuando encuentras una fórmula en la que la suma de las desviaciones al cuadrado es la más pequeña del deseo a rivales. Veamos cómo podría verse en Excel. Por lo que tenemos una mesa con cierto número de departamentos ahí, área y precio. Pero su lugar estos datos en la nave y ver los puntos con las fallas correspondientes. Vemos que hay una especie de independencia a cuanto mayor sea la zona, el corazón, el costo del departamento. Dibujemos una línea en Excel. Esto se puede hacer de la siguiente manera. Hacemos click en el gráfico. En el sitio aparece un signo más. Haga clic en él y ponga una garrapata para mostrar la línea de tendencia. De acuerdo, la línea es visible, pero ¿cómo podemos encontrar la fórmula específica o eficiente hasta el momento para que podamos predecir los precios de los apartamentos nuevos? En teoría, puedes hacer cálculos largos y resolver esta ecuación Aquí en Excel, usando cálculos de métricas, Sin embargo, esto se puede hacer mucho más fácil en dos semanas. De nuevo, truco en el signo más Quicken opciones adicionales. Y aquí ponemos una garrapata para mostrar la fórmula. De acuerdo, aquí vamos. Ahora podemos ver nuestro formal, um, en la parte superior del oficio. Por qué es igual a 0.715 x plus. Eres un 0.8111 Así que 0.7 es nuestro coeficiente A y 0.81 es nuestro coeficiente B. También puedes ver que hay una letra son cuadradas debajo de la fórmula. Es sinónimo de valores R al cuadrado. Este indicador toma fallas de 0 a 1 e implica al valle de 0 a 100%. Si el valor es uno, entonces esto significa que nuestra línea o son fórmula 100% describe correctamente la relación para indicadores en nuestras claves. El ratio de precio y superficie. Como puedes ver en esta gráfica el indicador son cuadrados es tu 0.976 el cual es un indicador bastante alto lo que sugiere que nuestro formal es muy efectivo. Según limpio. Ahora podemos predecir precios dependiendo de la zona conocida esta fórmula y los coeficientes. Simplemente sustituimos la zona de algunos apartamentos nuevos y vemos cuál debe ser el precio de acuerdo con nuestra fórmula. Como comprendes, esta fórmula también cambiará cada vez que introduzcas algunos datos nuevos de apartamentos reales de precios reales . Cambiará y se ajustará de tal manera que coincida mejor con todos los objetos de nuestra muestra. Podrás personalizar tu ex agresión para que los precios antiguos afecten menos tu fórmula porque son esos que son menos relevantes en el nuevo departamento. Los precios tendrían más esperando tu muestra, por lo que para resumir, en problemas de agresión, predecimos el valor numérico específico de un atributo en particular utilizando los datos disponibles y otros atributos, y hacemos todo esto a través de la ayuda de una fórmula que derivamos de un conjunto existente de datos reales. 6. Problemas de clasificación en el aprendizaje automático: clasificaciones es un gran grupo de pruebas que se utilizan con bastante frecuencia, yo diría que está abierto su regresión o incluso más a menudo, como podemos entender a partir de la especificación del nombre se utiliza con el fin de atribuir un objeto a una determinada clase. Por ejemplo, ¿la frontera podrá repetirse sola o no? ¿ O es un trabajador portuario sacando la foto, o la empresa se va a quedar en bancarrota o no? ¿ Y así sucesivamente? Si comparamos con regresión en regresión, no tenemos clases. Simplemente predecimos un valor milagroso. Por ejemplo, en la conferencia anterior, predijimos los precios de los apartamentos y los problemas de desclasificación. El número de clases es limitado. Proporcionamos los nombres de las clases a la computadora, y el equipo determina a cuál de estas clases pertenece el nuevo objeto. Echemos un vistazo a algunos dice clave, cuando las clasificaciones se pueden usar colmillos. actualidad, muchos bancos utilizan algoritmos de clasificaciones para determinar si aprobar un préstamo a un prestatario o no. En este caso, por lo general hay dos clases. El de primera clase es un crédito digno de trabajo de Bora, y la segunda clase es un Bora potencialmente poco confiable. Trabaja ahora imagínate, y tu cliente llega al banco y quiere tomar solo cómo los bancos determinan a qué Cristo pertenece una u otra potencial agua fronteriza, sobre todo si no tenían experiencia previa interactuando con él. Eso es correcto. Miran una gran base de datos de sus clientes y sacan conclusiones sobre qué clase de guerras mundiales . Este nuevo cliente es más similar a cómo funcionan estos algoritmos de clasificación. El banquillo tiene decenas o incluso cientos de miles de datos de sus clientes, y saben cuál de los clientes paga a tiempo y alcanzan, retrasan el pago o incluso se vuelven insolventes. Agregan estos datos sobre la base off. Por ejemplo, el monto del préstamo del que es no supera el 30% de descuento en sus ingresos mensuales, generalmente se basa regularmente en aquel que ya tiene otros largos retrasos huérfanos. Y hay muchas cadenas psicológicas basadas en esta información. El equipo en el banco construyó un modelo de especificación, por lo que la computadora construye un modelo. Entonces el gerente del banco pide a muy pocos un cuestionario a un nuevo cliente. Después ingresa todos estos datos en el modelo, y el algoritmo da una respuesta. Este nuevo cliente es prestatarios dignos de crédito o potencialmente poco confiables. El modelo puede incluso indicar con qué probabilidad este nuevo cliente probablemente se retrasará solo y si va a cebar en todos estos días. El rey de calificación crediticia la mayoría de los bancos se lleva a cabo de forma automática, incluso sin la participación de la banca. Los clientes especialistas simplemente llenan una solicitud en línea, y el equipo automáticamente da aprobación o no. En casos complejos y contenciosos, un gerente bancario es por supuesto. Wolf, en ese ejemplo de problemas de estreñimiento, fue mencionado en bajo las conferencias anteriores donde mencionamos flores irlandesas. Esta es también una tarea típica de catión de preguntas. Tenemos clases gratuitas de flores, y necesitamos aprender a predecir a qué clase pertenece una flor. Dependiendo del tamaño de sus pétalos y muestras, problemas de desclasificación se pueden resolver utilizando diferentes métodos. Los más utilizados son la siguiente regresión logística de árbol de decisión y no lo confundan con la regresión lineal habitual que ya hemos mencionado. Y predeciríamos un valor numérico específico. regresión logística es un poco diferente. Usando algoritmos, encontramos la línea que divide nuestro conjunto de datos en clases, luego un bosque aleatorio, conjuntos y soporte de mendicidad, máquina vectorial y oídos agudos vecinos. Examinaremos este asunto con más detalle en las siguientes fracturas. Mientras tanto, en pocas palabras. En los problemas de estreñimiento, predecimos a qué Cristo y objeto pertenece. El número de plazas es limitado. Es decir, por ejemplo, aprobar. Solo o no. la imagen se muestra un autobús, automóvil o una bicicleta, y así sucesivamente. estos días, los problemas de clasificación se están utilizando cada vez más en muchas industrias, quizás incluso más a menudo que los problemas de regresión, y por lo tanto, es una buena idea aprender esta pregunta los métodos de Gatien. 7. Clude en el aprendizaje automático: clustering es uno de los principales tipos de aprendizaje automático no supervisado en tareas de clustering. Tenemos un conjunto de datos, y necesitamos entender su estructura interna. Dividimos los datos en grupos o clústeres de tal manera que dentro de cada clúster tenemos elementos que son más similares entre sí pero difieren de los elementos en los otros grupos. Es posible que tenga una pregunta razonable. ¿ Cuál es la diferencia entre clasificaciones y problemas de clustering? Trataré de explicarlo con un ejemplo. Imagina que tenemos una mesa con las características de planetas y estrellas. Y gracias a cada objeto, tenemos una respuesta, ya sea un planeta o una estrella. Las respuestas son las llamadas etiquetas, que se utilizan en el aprendizaje automático supervisado. A partir de estas etiquetas, la computadora construye un modelo que puede predecir dentro inútil. Aún así, el cuerpo es un planeta o una estrella. Este es un ejemplo de problema de clasificación porque tenemos un número limitado y predefinido de clases que son estrellas y planetas, y pronosticamos dedo del pie a qué clase pertenece el nuevo objeto. Pero imagina que no teníamos respuestas. ¿ Cuáles son estos objetos en el espacio? Sólo teníamos sus características, como peso, temperatura, composición, etcétera. En este caso, la computadora con apenas dividió objetos bien en dos grupos, dependiendo de sus características similares y diferentes. Nuestra computadora diría que hay dos clústeres obvios que difieren entre sí, y sería nuestra tarea llamar a estos dos clústeres de alguna manera después porque el clustering es un ejemplo fuera del aprendizaje automático no supervisado en el que no tenemos etiquetas o respuestas para cada objeto. En nuestro conjunto de datos, simplemente dividimos todos los objetos en grupos, y no estamos tratando de predecir nada. Con respecto a los nuevos objetos, simplemente dividimos los objetos existentes en clústeres. ¿ En qué otro tipo de casos necesitamos usar clustering, uno de los usuarios más activos de clase? Anillo para minoristas y tiendas departamentales, ¿ cuáles quieren averiguar quiénes son sus clientes? Tomemos, por ejemplo, una gran tienda departamental que quiere hacer promociones dirigidas a sus consumidores. Tendrá que descomponerlos en grupos o cúmulos. Por ejemplo, los consumidores se pueden dividir en los siguientes grupos clúster familiar. Tienden a morder enseres domésticos y buenos con Niños. Deportistas que a menudo por productos deportivos y jardineros de nutrición deportiva y así sucesivamente. Y la próxima vez, cuando haya una venta, promoción de tienda de artículos deportivos enviará los mensajes problemáticos sobre esta promoción. No todos sus clientes, sino que sólo lo hicieron aquellos que ya tienen ambos artículos deportivos en el pasado. La bebida de clase también está usando muy activamente las redes sociales. Se hace principalmente para dividir a los usuarios en grupos en función de su interés en ese desertor, luego ofrecerles videos, imágenes, uso y otros contenidos más apropiados y relevantes imágenes, para que pasen más tiempo en estos APS. En segundo lugar, esto se hace a través de la publicidad de objetivo justo de manera más efectiva para que sea más focalizada. Precisamente para esos grupos fuera de usuarios, podría estar más interesado en los productos anunciados. Los teléfonos inteligentes también utilizan algoritmos de agrupamiento para separar fotos y videos en diferentes carpetas, por ejemplo, dependiendo de la fecha para el lugar donde las fotos tomadas para que los usuarios puedan encontrar estas fotos más fácilmente En estos días. Los teléfonos inteligentes incluso pueden distinguir lo que se representa en la foto, y pueden separar fotos basadas en lo que se ve, ya sea personas paisajes para el hogar en biología, llaves de sala de clase utilizadas con el fin de separar recién descubiertas representantes de reinos animales y vegetales en especies existentes, dependiendo de sus características. Muy a menudo se utilizan algoritmos de agrupamiento en la investigación genética, en particular para la notación caballero. Cualquier cosa biología evolutiva, así en el clustering, no va a predecir algo. Pero simplemente distribuimos los objetos existentes en diferentes clústeres o grupos en función sus características y características similares. Nos ayuda a entender la infraestructura fuera de nuestro conjunto de datos en el dedo del pie mandalas, trabajar de manera más eficiente con nuestro posterior. 8. Métodos de Ensemble en el aprendizaje automático: Hola ahí. Supongamos que tenemos cierto algoritmo, y en principio, hace frente bien a sus tareas. Pero ¿y si queremos mejorar la precisión de las predicciones de nuestros algoritmos? En este caso, vamos a utilizar algunos métodos adicionales y más avanzados. En las próximas conferencias, vamos a aprender algunas de ellas, incluyendo conjuntos, embolsado y bosque aleatorio. Métodos de conjunto. En machine learning significa que utilizamos una combinación de varios algoritmos diferentes para resolver el mismo problema con el fin de mejorar la precisión de la predicción. El uso de conjuntos en el aprendizaje automático se basa en el teorema del jurado de Condorcet, que se publicó ya en el siglo XVIII. Según este teorema, si tenemos un jurado y cada miembro del jurado tiene una opinión independiente, es decir, sus respuestas son independientes y la probabilidad de tomar la decisión correcta para cada miembro del jurado es de más de 50 por ciento, entonces la probabilidad de tomar la decisión correcta por parte de antiguos jurados general se acercará a un 100 por ciento a medida que aumente el número de miembros del jurado. En el caso contrario se aplica lo mismo. Si la probabilidad de tomar la decisión correcta es menor al 50 por ciento, entonces un aumento en el número de miembros del jurado, la probabilidad de tomar la decisión correcta tenderá a 0. Otro ejemplo ilustrativo es la llamada sabiduría del ejemplo de multitud. En 1906, la ciudad de la limpieza albergó un miedo que incluía muchos eventos de entretenimiento diferentes. Y es uno de estos eventos, alrededor de 800 personas participaron en una competencia para adivinar el peso de un bool. Ninguno de los visitantes a la exposición pudo adivinar el peso exacto del toro. Pero el estadístico Francis Galton calculó que el promedio aritmético de todos los supuestos difiere en menos de 1% del peso real del toro. El toro esperó ciento doscientas siete libras, y el promedio aritmético fue de 1198 libras. Esto llevó a una conclusión sorprendente de que si una persona no puede dar la respuesta correcta, entonces si recolectas datos de muchas personas y los promedio, obtienes un resultado muy bueno y muy cercano al verdadero. La sabiduría de la multitud se utiliza hoy en día en muchas industrias. Por ejemplo, cuando el jugador pide al público ayude al famoso programa de televisión Quién quiere ser millonario. E incluso toda la idea detrás de la creación de una Wikipedia o Yahoo Answers o servicios similares. Todos ellos se basan en la información proporcionada por un gran número de usuarios. Y si consideramos que la mayoría de los usuarios proporcionan a la información al mejor de su conocimiento, entonces con cada nuevo usuario, la confiabilidad y exactitud de este contenido y la información aumentará la confiabilidad y exactitud de este contenido y la información y la calidad de la información tenderá a mejorar. Por lo que los científicos de datos decidieron aplicar este teorema del jurado de Condorcet y la idea de la sabiduría de las multitudes en el aprendizaje automático con el fin de mejorar la precisión de los algoritmos. Supongamos que tenemos varios algoritmos. Sabemos que un algoritmo se ejecuta en un segmento de datos y el otro es incorrecto conducir el segmento de datos. Entonces si combinamos los resultados, podemos demostrar que están combinados. El error caerá porque se cancelan entre sí. De este modo, cuando se utiliza el método de ensamble, el resultado combinado de varios modelos es casi siempre mejor en términos de precisión de predicción en comparación con el uso de un solo modelo. Tomemos otro ejemplo. Una historia divertida sobre un grupo de ciegos y un elefante. En la historia, se pide a varias personas ciegas que toquen a un elefante y digan cómo parece que alguien toca sus orejas, alguien toca su tronco, y alguien toca su cola o piernas. Para cada una de estas personas, la idea de cómo se ve el elefante será diferente. No obstante, si combinamos las opiniones están llenas de ellas, obtendremos una idea muy completa de cómo se ve un elefante. Este es un ejemplo de un conjunto al combinar diferentes modelos juntos hará que la precisión de nuestra predicción sea mejor. 9. Bagging y potenciación: Los métodos de clasificación de conjuntos ligeramente más avanzados incluyen embolsado, potenciación, bosque aleatorio y apilamiento. Embalaje stands para agregación bootstrap. Supongamos que tenemos un conjunto de datos grande. Empezamos a extraer objetos aleatoriamente del conjunto y hacer conjuntos de datos más pequeños a partir de ellos. En consecuencia, obtenemos varios conjuntos de datos nuevos, más pequeños, que en términos de estructura interna serán muy similares a nuestro conjunto de datos original, pero al mismo tiempo serán ligeramente diferentes. Algunos objetos se encontrarán en varios conjuntos de datos nuevos. Es decir, se cruzarán y esto es normal. Y luego entrenaremos nuestros algoritmos en estos nuevos conjuntos de datos más pequeños. Y este método tiende a mejorar nuestra precisión. Supongamos que somos una empresa farmacéutica y tenemos datos de 10 mil pacientes y sus reacciones ante un nuevo medicamento que inventamos. Para algunos de los pacientes, el medicamento funciona muy bien. Para otros, no funciona en absoluto. Tenemos un árbol de decisiones y habiendo entrenado nuestro algoritmo, obtenemos un modelo que da las predicciones correctas en 75 por ciento de los casos. Esto ciertamente no está mal, pero aún así 25 por ciento del error de predicción es un diferencial bastante grande. Por ello, dividimos nuestro conjunto de datos de pacientes, varios conjuntos de datos más pequeños. Por ejemplo, cada uno contiene 2000 pacientes. Y luego entrenamos nuestros algoritmos en cada nuevo conjunto de datos. Y luego agregamos los algoritmos obtenidos al modelo final, que ahora hará las predicciones correctas en más del 80 por ciento de los casos. Generalmente se utiliza la mendicidad cuando la varianza del error del método base es alta. mendicidad también es útil en los casos en que la muestra inicial no es tan grande, y por lo tanto, creamos muchas muestras aleatorias a partir del conjunto de datos original. Si bien los elementos en dichos conjuntos de datos Sub se pueden duplicar como regla, los resultados después de la agregación son más precisos comparación con los resultados basados únicamente en el conjunto de datos original. Impulsar es otra forma de construir conjunto de algoritmos cuando cada algoritmo subsiguiente busca compensar las deficiencias de los algoritmos anteriores. En el inicio del primer algoritmo se capacita en todo el conjunto de datos. Y cada algoritmo subsiguiente se construye sobre las muestras en las que el algoritmo anterior cometió un error. Para que se dé más peso a las observaciones que fueron pronosticadas incorrectamente por el modelo anterior. En los últimos años, el impulso ha seguido siendo uno de los métodos de aprendizaje automático más populares a lo largo de las redes neuronales cuz. Sus principales ventajas son la simplicidad, la flexibilidad y la versatilidad. Uno de los ejemplos más populares del algoritmo potenciador es el algoritmo adaptativo Adaboost desarrollado por Shapiro y fluido a finales de los 90 del siglo pasado. 10. Votación magistral y promedio en Ensembling: conjuntos se pueden ver de diferentes maneras. Los métodos más simples son el voto mayoritario o promediar y promediar ponderado. voto por mayoría significa que cada modelo hace una predicción para cada instancia de prueba. Y el resultado final de predicción será el que sea el más común o reciba más de la mitad de los votos. Si ninguna de las predicciones obtiene más de la mitad del mundo que en este caso, podemos concluir que el método de ensamble no fue una buena opción para hacer predicción, y probablemente deberíamos elegir otro método. Tomemos el siguiente ejemplo. Supongamos que queremos comprar un teléfono nuevo. Elegimos entre modelos estadounidenses, chinos y coreanos. Si no usáramos el método de ensamble, por ejemplo, vendríamos a la tienda, preguntaríamos al CEO resistente qué recomendarías y lleváramos ese modelo. Si usamos un conjunto, entonces antes de elegir qué teléfono comprar, primero realizaremos una encuesta con diferentes personas, con todos los amigos, ver reseñas de usuarios en internet, sera uso de modelos en YouTube y expertos recomendaciones. Si elegimos el método de votación por mayoría. En este caso, vamos a elegir el modelo de formulario que fue recomendado por la mayoría de las personas. El siguiente método es el promedio simple. Supongamos que tenemos un portal de películas y asignamos la calificación de uno a diez por cada película. O usuarios que vieron la película enviar sus calificaciones. Y luego derivamos una calificación promedio en base a todos estos datos. Por ejemplo, dos personas dieron una calificación de 76 personas, ¿verdad? A las ocho, 12 personas califican a 99 personas dio una calificación máxima de 10. En consecuencia, el puntaje promedio es de 8.96. Y el siguiente método es promediar ponderado. De nuevo, tomemos el ejemplo de calificación de películas. Aquí podemos dar diferentes grupos tuyos diferentes pesos. Por ejemplo, los críticos profesionales de cine recibieron un peso de uno. Los usuarios que llevan mucho tiempo en la plataforma reciben un peso de 0.75. Usuarios finales que se han registrado el, recientemente recibimos un peso de 0.5. A continuación, derivamos un promedio ponderado de sus estimaciones. Y así obtenemos una mejor valoración ya que se supone que los críticos de cine y los que asisten regularmente al cine están mejor versados en las películas. 11. Bosques aleatorios: Los algoritmos forestales aleatorios se utilizan muy a menudo en problemas de aprendizaje automático, y se pueden utilizar en una amplia gama de tareas, clustering, regresión y problemas de clasificación. El bosque aleatorio está construido de la misma manera que la mendicidad, pero esto es, es versión ligeramente complicada. La similitud con la mendicidad es que creamos varios conjuntos de datos más pequeños a partir de nuestro gran conjunto de datos inicial original. La diferencia es que en los préstamos, utilizamos todas las características a la hora de construir algoritmos. Y en bosque aleatorio, seleccionamos aleatoriamente solo unas pocas características sobre la base de las cuales construiremos cada árbol individual. Tuvimos un ejemplo con una empresa farmacéutica donde necesitábamos entender si nuestro nuevo producto médico tendría algún efecto en personas con diferentes características, en particular, edad, género, nivel de colesterol, y sangre presión. En el embolsado, creamos submuestras y construimos un árbol de decisión para cada submuestra basado en todos los atributos en un bosque aleatorio, también crearemos submuestras. Pero para cada submuestra, tomaremos aleatoriamente solo ciertas características, no todas. Por ejemplo, de una manera género y edad, o solo nivel de colesterol agente. Entonces como de costumbre, agregaremos nuestro resultado y como regla, obtendremos aún mayor precisión de las predicciones de nuestros algoritmos. En problemas de clasificación, vamos a elegir nuestro modelo final por votación mayoritaria. Y en problemas de regresión, usaremos el promedio. No obstante, el bosque aleatorio tiene un inconveniente importante. La interpretación de las predicciones se vuelve muy difícil ya que tenemos muchos árboles sobre diferente estructura y profundidad. Y cada árbol utiliza una combinación diferente de características. Y por lo tanto, en los casos en que se necesitan transparencia sobre claves de toma de decisiones, prácticamente no se utiliza el bosque aleatorio. Por ejemplo, en la puntuación crediticia cuando los bancos deciden si dan o no un préstamo a un prestatario. En este caso, necesitamos saber por qué nuestro modelo ha dado estos o su decisión. Y si usamos el bosque aleatorio, se vuelve incomprensible. De esta manera, un bosque aleatorio es como una caja negra. Predice muy bien, pero prácticamente no explica nada. Es decir, no está claro en qué se basan estas predicciones. No obstante, para los patos eran alta precisión de la predicción se necesita. El bosque aleatorio es uno de los algoritmos preferidos. 12. Configuración de Python Distributivo de Anaconda: Hay muchos lenguajes de programación. Pero desertor e históricamente, Brighton se ha convertido en el estándar en el alcaide de máquinas, los analistas candidatos lo es. Se han recolectado muchas bibliotecas para python. Por supuesto, también se pueden utilizar otros idiomas, como nuestro escalador o C Sharp. Pero nos centraremos en Python porque probablemente sea el más popular y lo suficientemente sencillo como para aprender. Ahí hay un lado maravilloso llamado Anaconda. De este lado, se puede descargar no sólo Python sino también diversas bibliotecas para ello, cuales son utilizadas por los científicos de datos así como todos aquellos que se dedican al aprendizaje automático . ¿ Qué es una mentira? Todas las bibliotecas mordidas son soluciones listas hechas, es decir, modelos con plantillas de código. Fueron creados para que los programadores no tengan que retirar el mismo código cada vez que simplemente abren el archivo, insertan sus datos y obtengan el resultado deseado, Así que considérenlos como depositarios fuera de la corte plantillas. Por lo que el on a condón incluye todas las herramientas básicas para escribir código, análisis de datos y diversas bibliotecas que pueden ayudar en este proceso. El primer instrumento es Júpiter Notebook. Este es un entorno en el que va a escribir código y probado. Después tenemos varias bibliotecas. Los gastadores de E más populares. Se trata de una biblioteca para trabajar con datos tabulares. Es muy similar a Excel. La segunda biblioteca es mucho sueño. Se utiliza para visualizar datos, crear gráficos y gráficos. La primera biblioteca es psíquica. Aprender. Contiene los algoritmos básicos de aprendizaje automático. Con la ayuda del aprendizaje psíquico, se pueden utilizar algoritmos como regresión lineal, redes neuronales simples y árboles de decisión, y un tensor de biblioteca más lleno. Se utiliza para trabajar con redes neuronales de diversas arquitecturas, así que vamos a descargar Brighton. Última versión indecisa se puede descargar para Windows, Mac OS y Kleenex. Después de descargar puede un condón, ve el atajo Anaconda Navigator, ya sea en el escritorio o en el menú de inicio. Haga clic en él y aparecerá esta ventana. Nos interesará en su mayoría el cuaderno Júpiter, y no sea que no lo debas confundir con la lámpara Júpiter. Por lo que después del cuaderno de Quicken Contributor, se abrirá un navegador y aparecerá dicha ventana. Júpiter te permite crear cuadernos, que son archivos con el código python que puedes ejecutar de inmediato y probar donde puedes crear, agarrar y hacer otras cosas. Vamos a crear una carpeta y darle un nombre. Ahora, En esta carpeta, creamos un archivo para un llamado cuaderno, y escribirás código en las celdas de este cuaderno. En los siguientes resultados guardados, comenzaremos a aprender los conceptos básicos de la programación de Python, los comandos más básicos para la introducción inicial. Si por alguna razón no quieres instalar el distributivo Python o Anaconda, tal vez no haya suficiente espacio en su computadora o por alguna otra razón, también puedes usar los servicios de Google Collapse. Este es el entorno que Google te alquila y donde también puedes codificar en python sin instalar kid en tu computadora. Es decir, se trata de un sistema listo en el que se puede empezar a trabajar de inmediato. Es decir, su entorno de Microsoft funciona de la misma manera. Si tienes una cuenta de Microsoft, puedes usar sus puntos y cuadernos en ahí entorno azul sin instalar nada. Muy bien, entonces, en el próximo episodio, vamos a aprender algunos comandos básicos en Brighton 13. Comandos básicos en Python: Entonces, si empeoras sobre Python, este es un lenguaje bastante conveniente para aquellos que apenas están empezando a aprender programación, yo diría que tiene un Syntex un poco más simple. No hay semi colones y lo común me parece que se vea más simple. Y no necesitaba monitorizar constantemente para que todos los soportes estén abiertos nuestro cerrado y para que todos los modelos estén correctamente apilados y así sucesivamente. Echemos un vistazo al inicio más simple por teléfono. En primer lugar, ya que muchos idiomas. Si pones el símbolo hash, entonces puedes escribir cualquier cosa. Se considerará como comentario y quién puede reproducirse como frío. Por lo general, estos comentarios son necesarios para que usted mismo entienda por qué escribió este o aquel código cuando revisará cuando otros programadores lo mirarán para que también puedan entender por qué montó el abrigo de esta manera y no de lo contrario. Entonces el comentario impreso muestra lo que escribiste entre paréntesis en el grito. Si se trata de un texto, entonces debes ponerlo entre comillas para ejecutar el comentario. Se puede pulsar turno más entrar. Pyfrom es en cualquier lenguaje de programación se puede realizar cualquier operación matemática, por ejemplo, a deducir, multiplicar o dividir. Si imprimimos $100.300 precio turno, entra y obtenemos 400. También podemos declarar de llegadas escribiendo una carta o algún nombre y después poniendo marca igual . Por ejemplo, A es igual a una comillas colina un mundo. Y entonces podemos imprimir esta llegada escribiendo print anti entre paréntesis A. O podemos decir que ahora la letra A será el número 100 la letra B será el número 313. Y con la ayuda del comando de impresión que allí se muestra, algunos en la pantalla o cualquier otro número electoral matemático también se pueden comparar entre sí . También sabrá que si quiere declarar de llegada, puso un signo igual. Y si se comparan con los rivales entre sí y preguntan dónde el uno es igual al otro, entonces solíamos igualar marcas juntos. Y si quieres comparar eso, los dos números son desiguales, ponemos un signo de exclamación, y una marca igual junto es con cualquier lenguaje de programación. Existen diferentes tipos de objetos en python. ¿ Qué tipos de objetos son los más comunes? Bueno, podemos dividirlos en dos tiempos medios. Objeto mutable e inmutable cuyo valor puede cambiar se llama mutable. ¿ Dónde están los objetos cuyo valor es inmutable una vez creados? Se llaman inmutables. La mutabilidad de un objeto está determinada por su tiempo. tipos inmutables incluyen flotador entero. Varietales lógicos también llamaron a sus miles de millones que es, por ejemplo, caídas de gira y fuerza. Los tipos bellos incluyen sacerdotes, set y diccionarios que es, en el camino. Podemos cambiarlos. Veamos cómo podemos comprobar a qué hora pertenece el objeto. Podemos utilizar la función de tipo para conocer la clase de llegada. Además, como puedes ver, a diferencia de C Sharp o Java, por ejemplo, el lenguaje python también se caracteriza por el hecho de que cuando declaras si llegas tú mismo, no necesitas inicialmente seguro qué tipo de llegada ahora declararás por teléfono se entiende. Acabas de probar el nombre de la llegada y después darle al valor. Por lo tanto, por teléfono se clasifica es un lenguaje dinámicamente tipado. Si escribimos en C Sharp o Java, quién indicaría inicialmente qué tipo de llegada sería, y en por teléfono. Simplemente declaramos un musical a 10 y por teléfono mismo, entiende que en este caso, el tipo de llegada es un entero y lo mantiene así. Qué más podemos necesitar. Existe tal pensamiento como el formateo de salida y el trabajo con cadenas. Esta es una función muy conveniente que nos permite no volver a escribir código constantemente, sino plantillas de alguna manera, por ejemplo, para no escribir el nombre cada vez que queremos que nuestro abrigo sustituya el nombre siempre que lo necesitamos. Se puede diseñar de diferentes maneras, dependiendo del python que tengas instalado. Estas son las principales opciones de salida, por ejemplo, nombre, musical, musical, equipo del dedo del pie o e imprimir. Hola más nombre es la forma más difícil cuando simplemente agregamos la palabra Hola y el nombre varietal, por favor sepan que nuestra frase está encerrada entre comillas y no se olvide de dejar un espacio después de la palabra hola y antes de la segunda comillas y el nombre de llegada debe ser sin comillas. La segunda y primera opciones están usando la letra adicional F o la palabra cuatro meses está bien, una segura corchetes. De esta manera, si queremos cambiar el nombre del varietal, ya no necesitaremos escribir una nueva línea de código. Se sustituirá automáticamente por el nuevo nombre y una función básica más. Veamos qué versión fuera de python usamos en sus importaciones ve y luego imprimimos y entre paréntesis cesan versión y solo por diversión. Veamos qué versión off por teléfono se utiliza en el colapso de Google. Por lo que en esta conferencia aprendemos a imprimir cómo realizar operaciones matemáticas y cómo comparar números entre sí, cómo declarar diferentes llegadas y con qué tipos de objeto se pueden relacionar, cómo usar para entrada de minutos y cómo averiguar qué parte de la vida y estamos usando ahora . Nos vemos en la próxima conferencia, donde vamos a aprender algunos comandos más básicos en por teléfono 14. declaración condicional: para conocimientos básicos de programación en por teléfono. También necesitamos aprender los llamados operadores para controlar el flujo de comandos. Estos incluyen si más while y cuatro operadores. Empecemos con el primer operador, si de lo contrario se utiliza para verificar las condiciones. Si la condición es verdadera, entonces ejecutamos el If. Mira, si la condición no es cierta, entonces ejecutamos el bloque else, lo que significa que estamos diciendo a la computadora si ocurre una condición, entonces ejecutamos cierto elogio. De lo contrario, ejecute otro comando. Entonces veamos cómo se ve la declaración if en un ejemplo concreto. Ahora vamos a comprobar si los números dados son pares o ordenados, como sabemos por el curso escolar, pares números son aquellos números para los que el resto, cuando se divide por 20 y para los números antiguos, el resto, cuando se divide por dos, es uno por fondo. Hay una persona ese operador que muestra el resto sobre dividir un número por otro número. Por ejemplo, si escribimos 25% a, entonces conseguiremos uno, porque si lo haces yo 25 por dos obtienes 12 y el resto es uno. Si escribimos 26% a entonces obtendrás cero porque 26 se divide por dos sin el resto. Probemos con otros números. Entonces, no escribamos una fórmula que nos dé la respuesta. Si el número ingresado es par número de orden es igual a dejarlo ser. Por ejemplo, Número 22 si número por ciento también, es igual a cero impresión. El número es aún más impreso. El número es otra cosa en este caso significa que en todos los demás casos, si el resto no es igual a cero, entonces es necesario dar la respuesta de que el número es viejo. Vamos a revisar el abrigo en diferentes números. Genial, todo cadáver. Ahora bien, si también quieres apuntar el número que proporcionó en tu entrada, también puedes usar la función anterior. Se ve de la siguiente manera. Teníamos corchetes de forma segura a la línea de impresión después del número mundial y después de las comillas , pusimos un ex punto y probamos el número entre paréntesis. Ese es el número que indicamos. El inicio se arrancará automáticamente entre paréntesis rizadas. Número es igual a 22 si número por ciento a físico 20 impresión. El número de corchetes rizados es punto par. Ex y en parentis es número más. Imprimir el número corchetes rizados es antiguo período anterior y entre paréntesis número . Si consigues un cheque alguna vez que usó puramente corchetes después del número mundial y también pones la marca de periodo antes de cuatro meses, prueba a revisar los números solo cambiando tu número de llegada. Añadamos una condición más aquí. Por ejemplo, si entramos cero, muchos discutirían si cero es un número par o impar. Vamos a anotar que al entrar cero, vamos a conseguir que ingresaste cero por favor bajo un número diferente. Entonces cuando agregamos una nueva condición, usamos que un operador de hojas. Un número de hoja es cero impresión que ingresaste cero. Prueba un número diferente, pero mira lo que pasa. Nos siguen dando que tu es Even. Esto se debe a que Python ejecuta comentarios en orden que es. En primer lugar, el programa lee la primera línea y divide nuestro número por dos. Y como sabemos al dividir cero por dos, obtenemos cero, es decir. El resto también es cero, por lo que nos da el primer comando de que el número es parejo. ¿ Qué crees que se puede hacer para evitar estos y que al dividirse por cero, nos da el comentario que necesitamos. Toma unos toros cortos, detén el video y piénsalo. Incluso puedes probarlo tú mismo en tu computadora. Entonces, como probablemente adivinaste, quien sólo barre las líneas, Sed pondrá el viento a revisar. Ya sea la respuesta Tom Berry, cero o no, y sólo entonces comprobaremos qué resto tenemos. Muy bien, entonces. Entonces aquí hay otra tarea que ahora harás tú mismo. Tendrás que escribir una cabra en la que te indicamos la velocidad del auto. Y si la velocidad es menor o igual a 60 kilómetros por hora, entonces necesitamos escribir. Ten cuidado en las carreteras, y si la velocidad es de más de 60 kilómetros por hora, entonces escribiremos. Por favor, observe el límite de velocidad. 100 por hora es opcional. No es necesario indicar en el frío solo la velocidad en números y ahora posar el video y se puede tratar de completar la tarea. Entonces, ¿cómo te va? ¿ Lograste escribir este abrigo y probaste? El cancha parecerá que estas velocidad es igual a 61 aquí realmente podemos escribir cualquier número si la velocidad es menor o igual a 60. Imprimir, ten cuidado en la carretera. Si la velocidad es mayor a 60. Imprimir, por favor observe el límite de velocidad aquí en principio. En la segunda línea de código, podemos usar ya sea una declaración más o bien sentencia else. No hay diferencia real. Comprobemos las diferentes velocidades y comprobemos la velocidad de 16. Como puedes ver, todo funciona si quieres. Puedes tratar de pensar en otros ejemplos por ti mismo y practicarlos en casa, por ejemplo, tratando de escribir el código si es posible vender alcohol o cigarrillos a un comprador, dependiendo de su edad y en conferencia de agradecimiento se continuar nuestros acuerdos con otros comandos en Bytom. 15. Mientras se declaración: el siguiente operador de flujo de control es la declaración salvaje. Nos permite llevar a cabo los ciclos repetidos de tareas. Wild Statement funciona de la siguiente manera Mientras se está cumpliendo la siguiente condición, es necesario ejecutar el siguiente comando. El ejemplo más simple es cuando le pedimos a la computadora que muestre todos los números del 1 al 50 la cancha se verá así. En primer lugar declaramos su llegada entumecida y eso es igual a uno. A continuación, escribimos que mientras nuestra variable es menor o igual a 50 entonces mostraremos este número usando el comando print terminando la siguiente línea. Damos comando para aumentar este número por corrida con cada siguiente ciclo. El signo más e igual significa que le damos nuestra variable y usted valora por el agente Kwan Treat. Estas dos líneas, que se escriben bajo mientras se imprimen y se incrementan de llegada en una, se llaman una iteración por un pase fuera del bucle. Sólo se ejecutan si la declaración salvaje es cierta. Dentro de un ciclo, puede haber cualquier afectación numérica e incluso ciclos adicionales dentro del ciclo principal. Si bien la declaración se utiliza muy a menudo en los juegos de computadora, en la transferencia de datos y en muchos otros casos por regla general. Dentro de la declaración Wild, hay una varietal que cambia su valor dentro del bucle porque si siempre permanece igual, el grupo será constante e infinito. Tratemos de hacer otra tarea similar. Intenta escribir el código usando el operador while para que ahora te den números en la dirección opuesta desde 52 0 pero para que los números no vayan en orden. Pero después de un dígito, es decir 50 48 46 así sucesivamente. Pausa el video y prueba a escribir este frío, así que creo que te las arreglaste para hacerlo. El cancha se verá como estos ahora musical a 15 mientras que mamá es más o igual a cero. Imprimir Nam en la siguiente línea, entumecido, menos igual a bien y crear. Ahora, ¿qué más necesitamos saber cuando hablamos de la declaración salvaje? En primer lugar, ¿cómo detenerlo? Porque los ciclos pueden durar para siempre. Ya hemos dicho que se puede detener especificando una restricción al principio , por ejemplo, ejemplo, mientras que el número es menor a 15. Pero y si no tenemos números, Pero en cambio tenemos palabras donde Tenemos números, pero cambian en orden aleatorio. ¿ Qué debemos hacer en esta situación? En este caso, posible que necesitemos el Comando de Break, que detiene al grupo. ¿ Cómo se ve? Tomemos un ejemplo similar. Escriba los números del 1 al 10. Dijimos El número de llegada es igual a uno ahora para iniciar el bucle constante que podemos imprimir. Si bien cierto, entonces el comentario imprime el número en sí. En la siguiente línea, agregamos uno al número cada vez. Y luego usamos la declaración if, que ya habría aprendido en la conferencia anterior. Dar el número es 10. El comentario de descanso interrumpirá nuestro ciclo, y después del ciclo se detuvo. Se puede escribir la frase, por ejemplo, hecho. No el margen desde el borde de la línea porque la frase hecha tiene que ser devuelta en el mismo nivel es la sentencia while original y entonces se ejecutará sólo después de que se complete el ciclo salvaje . Entonces sigamos ahora. La siguiente función es cómo hacer que la computadora nos pregunte algo y luego usar lo que se ingresa para la operación. Para ello, necesitaremos la función de entrada supongamos que queremos jugar un juego llamado Guess My Age sed proporcionaría al equipo nuestra verdadera edad. Y entonces la computadora le pedirá a la persona que lo adivine. Dependiendo de la respuesta que escribamos, la computadora o nos seguirá preguntando o nos dirá que hemos adivinado esa edad. Forma correcta. ¿ Cómo podemos implementar este juego en unas pocas líneas de código? En primer lugar dijimos la edad varietal, que es cualquier número que no sea igual a nuestra verdadera edad. A continuación escribimos mientras la verdad, lo que básicamente significa que damos la orden de ejecutar el ciclo para siempre. Entonces la afirmación if hasta los 13 años y esta es la edad que adivinamos es cierta. Entonces en la siguiente línea, escribimos break, lo que significa que rompemos el bucle. Y si esta afirmación if no funciona, entonces escribimos edad igual a y luego la siguiente fórmula int input y obtenemos la edad. Este primero significa que ahora la edad varietal tendrá un valor que el usuario ingresa en respuesta a la edad de las puertas de frase. El en trabajo al principio significa que será un entero. Es un número en la siguiente línea y al mismo nivel con la declaración salvaje que escribimos, lo adivinaste. Esta frase se ejecutará sólo cuando se rompa el bucle while porque si las edades no adivinan, la computadora seguirá ejecutando el ciclo y pedirá obtener la edad una y otra vez. Vamos a probarlo ya que se puede ver todo raro. Lo único aquí es insertar un pequeño espacio después de la era mundial. Una cosa más, se puede preguntar, ¿Por qué escribimos mientras la verdad? ¿ Qué significa? Esto se hace para establecer un bucle constante, en realidad en lugar del mundo verdadero. Después de un tiempo, se puede poner cualquier sentencia verdadera, por ejemplo, mientras que uno es menor que dos y el equipo ejecutará este bucle while siempre y cuando uno sea menor que dos. Eso es siempre y por lo tanto sólo es costumbre en tales casos escribir simplemente, mientras que cierto, entonces lo que hemos aprendido en este episodio, el bucle while cómo se puede detener usando el inicialmente especificado, limitado o utilizando el comando break. También repasamos cómo capturar y usar lo que el usuario ha escrito usando el comando de entrada por lo que ahora algunos deberes para ti. Usando la sentencia wild, intenta escribir el código para que la computadora siga pidiéndole la contraseña a Cue hasta que la ingreses correctamente. Y si ingresaste la contraseña correcta, entonces el equipo muestra la frase Welcome. Una pequeña pista en la línea donde capturará la contraseña ingresada por el usuario. Preste atención al tipo de llegada, si su contraseña será un número o un set off letras. 16. Pron. Predicting precios planos con regresión lineal en Python: en este episodio, vamos a aprender a predecir los precios de los apartamentos usando python y simple en un modelo de regresión. Recuerda que hicimos la misma tarea en sí misma. Entonces vamos a usar el mismo archivo y ver cómo se ve en mi iPhone al final del episodio. También te daré otra tarea que hacer es tu tarea. Aquí tenemos un archivo Excel que nos dice el precio de un departamento, dependiendo de su área. Como saben, esta es una correlación muy simplificada. Todos entendemos que el precio del apartamento está influenciado por una gran cantidad de factores además de la zona, como la ciudad. ¿ Qué edad tiene la ubicación del edificio desde el centro de la ciudad y desde la estación de metro más cercana, condición del piso número de pisos y así sucesivamente. Pero por razones de simplicidad, tomamos sólo un factor. El área, porque obviamente es uno de los factores más importantes, y la correlación es bastante fuerte cuando hacemos este tipo de predicciones, donde hay una dependencia lineal o que necesitamos hacer es colocar nuestros valores en el gráfico y trazar una línea entre ellos que con mayor precisión refleje la correlación. Y cuando tengamos tal línea, podemos predecir cuál será el precio, dependiendo de cualquier área. Pero se puede preguntar por qué la línea se ve así porque no pasa por todos los puntos. ¿ Es la mejor línea que describe la correlación entre precio y área? Como ya dijimos en una de nuestras conferencias anteriores sobre la regresión? Para encontrar la línea que describe nuestra dependencia como yo caracteriza posible, utilizamos la fórmula. ¿ Por qué es igual a una X Plus B en nuestras llaves? ¿ Por qué es el precio y X es la zona? Y para encontrar los coeficientes, usaremos el método más clásico, que es el método de menos cuadrados. El método de mínimos cuadrados es el método. Cuando encuentras enriquecida la fórmula, la suma de las desviaciones al cuadrado de nuestros valores reales es la más pequeña de la línea que estamos construyendo. Veamos cómo va a funcionar en. Fife en primer lugar entrenará a nuestro modelo utilizando los datos disponibles sobre pisos con precios reales, y luego hará predicciones para otros socios con un área diferente. Recuerda cuando instalamos python en el cuello en la página web dijimos que Anaconda también contiene diversas bibliotecas para el aprendizaje automático. Eran pundits modelo, duermen por y otros. Estas bibliotecas contenían modelos de código prefabricados para diversos algoritmos de aprendizaje automático. Por lo tanto, lo primero que debemos hacer es demasiado importante. Es bibliotecas en nuestro cuaderno bisonte en Júpiter. Bundle es necesario para trabajar con datos tabulares como Excel. Ahora comprar facilita las operaciones matemáticas en por teléfono y será necesaria para visualizar nuestra fecha en gráficos y gráficos. Y una biblioteca más importante es psíquica Aprender. Contiene algoritmos básicos, off machine learning from psíquico learn. Vamos a importar el algoritmo de regresión lineal. Siguiente. Lo que tenemos que hacer es subir nuestro archivo Excel a nuestro cuaderno de Júpiter. Necesitamos subir este archivo a la carpeta donde se encuentra nuestro cuaderno Python. Haga clic en la carga y suba el archivo en este más completo. Ahora necesitamos subir estos archivo Excel en nuestro por el cuaderno usando el siguiente código PD avaricia, Excel y en Barrington dice el nombre del archivo que tienes aquí significará el marco de datos que estamos creando. Puedes darle cualquier otro nombre como quieras y con la D de comentario. Ahora podemos mostrar esta tabla. Por cierto, si tienes un incendio con la extensión CSC, que también es común al trabajar con tablas, entonces necesitarás usar el código pedido Treat CSE y el nombre del archivo. Ahora visualicemos los datos de esta tabla en el gráfico. Para ello, los necesitaremos al alza biblioteca Creep, que también fueron importantes en un principio por lo que la cancha será por ciento mes dormirá en fila y luego la siguiente línea. Plt no se dispersan y en parentis es DF zona Kalmadi de precio en BLTs getter entre paréntesis , primero indicamos el eje X y luego ahí y ejes. Genial. Podemos ver nuestros valores en el gráfico. Por cierto, podemos hacer puntos de un color diferente comiendo en función de dispersión culpable, el color del mundo y el color que necesitamos entre comillas. También podemos, si quieres cambiar puntos a otros Aikens, por ejemplo, más o estrellas o incluso flechas. Para ello, utilice la palabra marcador en la función patinadora. ¿ Qué más nos falta? Démosle a nuestros X e y xs sus nombres. Plt punto exe. Etiqueta en padre es área metro cuadrado y BLT adulto y etiqueta entre paréntesis. Precio 1,000,000 de roubles. Genial. Ahora parece un gráfico real. De acuerdo, entonces ahora podemos empezar a entrenar modelo de auto. Ya hemos importado una plantilla de modelo lineal de la biblioteca psíquica Lauren. Vamos a crear un varietal llamado trapo, y será nuestro modelo de agresión más magro. El freno es igual del dedo del pie lineal. Modelo de subrayado punto Regresión lineal. Parentis no es la capitalización en la regresión lineal del trabajo. Si ingresa letras minúsculas, el tribunal no funcionará. Por lo que a continuación necesitamos capacitar a este modelo utilizando los datos que tenemos. En términos generales, necesitamos mostrar a nuestro modelo todos los precios dependiendo de la zona. Y te pediremos que calcules la mejor fórmula de regresión lineal que describe la correlación entre el precio y el área. Por lo que usamos la función pies para cargar en nuestro modelo. Nuestros datos, cuando el aire y los precios en corchetes dobles damos los valores fuera son factores en nuestro caso, el área y después del coma, las respuestas en nuestras claves, los precios. De hecho, puede haber varios factores. Y luego escribiríamos cada factor después del coma. Está bien, aquí está la confirmación de que el modelo ha sido entrenado, y ahora puede hacer predicciones. Como se puede ver, la tos del tren, un modelo tarda apenas unos segundos, y en el aprendizaje automático en general el entrenamiento es sólo una parte del trato. Lo que es aún más importante es preparar los datos para la capacitación, elegir el modelo adecuado y luego interpretar correctamente los resultados. De acuerdo, sigamos adelante. Y tratemos de predecir cuánto costará un departamento por 38 metros cuadrados. Correcto, predecir y en parentis es 38. Excelente. Y si 120 metros, comparemos con nuestra predicción hecha en excel. Son muy similares con una alta precisión. Por lo que mencionamos que unas agresiones más delgadas se basan en la fórmula. Por qué físico X más B en nuestro crepúsculo, ese algoritmo de regresión azkadellia utilizado para encontrar tales coeficientes A y B, dará la desviación mínima de nuestros valores de la línea que estamos construyendo. Veamos qué coeficientes son el modelo tiene para el coeficiente ocho. Escribimos pecio dot cueva subrayado, y para el coeficiente b, escribimos subrayado rectal intercept. De esta manera, nuestro modelo es el siguiente el precio del departamento es su un 0.71 veces la zona y más 0.8111 Vamos a comprobar qué fórmula teníamos. Un excel. Como se pueden ver resultados muy similares. Son poco a su alrededor. En excel. Vamos a revisar de nuevo. Multiplicamos 120 metros por el primer coeficiente y agregamos el segundo coeficiente para comer. Y sí, obtuvimos exactamente el número que nos fue dado en la predicción anterior. Por cierto podemos trazar la línea que muestra nuestras predicciones. Utilizamos el algoritmo de regresión lineal, por lo que tendremos una línea recta para verlo en nuestro gráfico. Copiemos el código que usamos arriba para obtener el gráfico. Y en la última línea, ed BLT dot plot y en parentis es DF era coma Greg. Predecir zona DF. Este abrigo significa que estamos dibujando la línea sobre la que tendrá un área a lo largo de nuestra X X es, y el largo acceso blanco tendrá precios que nuestro modelo predijo. Preste atención al número de corchetes y parentis es muy fácil confundirse cuando entras a este frío. Bueno, como podemos ver esta línea describe la mejor y bastante bien estrecha, ligera desviación de los verdaderos valores, pero inevitablemente serán por la policía. Podemos decir con certeza que esta es la mejor opción fuera de todas las líneas rectas posibles para estos puntos. Entonces sigamos y apoyemos eso. Contamos con un incendio con departamentos en los que sabemos que son zona pero desconocemos los precios. Tendremos que sentir la segunda columna usando los precios que predice nuestro modelo. Primero subamos este archivo a nuestro cuaderno de Júpiter. Para ello, este archivo debe estar en la misma carpeta que tu bloc de notas. Ahora usa el comando de Excel de lectura para subir el archivo a nuestro cuaderno de Python. Se llama esta nueva mesa con pisos nuevos. Pred del mundo predijo. Ahora mostremos nuestra mesa. En la tabla hay 10 filas, y cuando los archivos son demasiado largos, simplemente podemos pedirle al ordenador que muestre las primeras líneas usando el cabezal. Encomiar o incluso podemos indicar cuántas filas de la tabla queremos mostrar. Por ejemplo, la cabeza impresa y la inferencia libre es rosa libre. A continuación, utilizamos nuestro modelo existente para hacer predicciones para estas nuevas áreas de departamentos. Utilizamos nuestro modelo rojo y enviando la zona, o para un nuevo pisos, rectal predicen y en parentis está impreso. Está bien. Como puedes ver, estas son las respuestas con precios pronosticados. Genial ahora son anochecer es hacer otra columna en esta tabla para que podamos insertar estos precios pronosticados ahí para hacer estos primero. Ahorremos nuestros precios pronosticados. ¿ Un varietal p ahora te crea columna e inserta estos precios ahí Para hacer esto? Simplemente escribimos el nombre de nuestra mesa de preds. Después entre corchetes y entre comillas. El nombre de la nueva columna predijo los precios. Y después de eso asignamos a esta columna, hubo precios pronosticados que recibimos arriba. Como recuerdan, los designamos con la letra B. Excelente. Ahora es sólo ver estos archivo en Excel Oración para decirle a sobresalir. Terminar actual es de Deja que sea el archivo tú. Ahora este archivo debería aparecer en nuestra carpeta en Júpiter. Aquí está. Nosotros lo abrimos genial. De lo único que también exportó. La columna de índice que es la primera columna, que en realidad no es necesaria. Podemos eliminar aquí en excel o de nuevo para el código. Se retira, como estos índice físico a caídas. Vamos a revisar de nuevo, crear el índice apareció. Entonces, ¿por qué pasamos en estos episodios? En primer lugar, cuando se trabaja con Machine Learning Project casi siempre tendrá que importar bibliotecas antes del inicio de cada proyecto. Las bibliotecas más comunes son pandas bulto, yo podría educadamente, psíquico aprender y otros. Permiten trabajar con datos tabulares, visualizar fecha en gráficos y usar plantillas listas hechas fuera de varias máquinas Lauren Calgary pulgares. A continuación, aprendimos a cargar archivos Excel en nuestro cuaderno de Júpiter y visualizamos datos tabulares en una gráfica. También aprendimos a entrenar nuestro modelo, utilizando los datos disponibles y utilizando el algoritmo de regresión lineal. Y estábamos en predecir los diversos para nuevos datos. Y también aprendimos a crear nuevas columnas en tablas en por teléfono e ingresar ahí nuestros datos pronosticados y luego guardarlos en un archivo Excel en nuestro equipo. Por lo que ahora me gustaría darles algunos deberes para consolidar lo que hemos aprendido. Todos sabemos que una parte sustancial del presupuesto de fracturas está conformada por ingresos por la venta de energía, petróleo e invitado. Es parte de nuestra tarea. Predicemos la dependencia del PIB de Rusia con respecto a los precios del petróleo. Para ello, utilizaremos los datos de los últimos 15 años. Tengo preparado para presentar para ti en excel. Se adjunta a esta conferencia. Si alguien está interesado, tomé los datos de la página web del Banco Mundial. Existe mucha información estadística sobre la economía y otro aspecto fuera de la vida en diferentes países, así como de los sitios web que es dot com. El fuego se ve así. Tenemos PIB fuera de Rusia, una columna y los precios del petróleo. En otra columna, necesitarás subirlo a tu nuevo cuaderno de Júpiter, exhibir estas citas y manualidades, después entrenaste a la modelo y luego tratar de predecir nuestro PIB dependiendo de los diferentes precios del petróleo. Bueno, eso es todo por ahora. Obtuvieron un archivo Excel para la tarea de predecir los precios departamentales así como el archivo Excel sobre petróleo. Precio y PIB son todo el escenario. Hay un recurso es a esta conferencia. Espero que hayas disfrutado de este episodio viendo los siguientes 17. Predice el GDP de tu país basado en los precios del petróleo: Entonces, ¿cómo es tu progreso? ¿ Te las arreglaste para entrenar el modelo para predecir trituradoras PIB, dependiendo de los precios del petróleo, vamos a ver cómo son geniales para lucir como lugar, creándote archivo y lo nombras. Lo primero que hacemos es importar las bibliotecas a nuestro proyecto. A continuación, abramos archivo Excel con la crisis petrolera y el PIB. Recuerda que este archivo debe ubicarse en la misma carpeta es tu cuaderno Python. Muy bien, empecemos a construir un gráfico usándolos arriba o modelo de tweet. Teníamos los nombres del acceso, el precio del petróleo y el PIB de Rusia en miles de millones de dólares. Por lo que la gráfica parece bastante realista, como podemos ver con el mismo precio del petróleo. Pero en diferentes años, PIB fue ligeramente diferente. Quizás esto se deba al efecto de que Rusia fue capaz de diversificar su economía o por algunas otras razones. A continuación, vamos a crear nuestro modelo de regresión lineal, y con la ayuda del comentario de los pies, lo entrenaremos usando los datos sobre los precios del petróleo en el PIB de Rusia. Aquí vamos. Tenemos la confirmación de que nuestro modelo ha sido entrenado. Ahora podemos hacer predicciones. Predicemos primero para todos los años y comparemos lo cerca que están las fallas pronosticadas con los valores verdaderos. Bueno, esto bastante sin duda más bien de unos 200 a 400 mil millones de dólares. ¿ Qué significa probablemente? Bueno, podemos estar de acuerdo en que hay alguna correlación entre el PIB y los precios del petróleo, pero esta correlación está lejos de ser muy fuerte. Bueno, claro que deberían haber terminado. Existe porque la economía rusa aún no depende completamente de Lee de los precios de la energía . Existen muchos otros factores que deben tenerse en cuenta. Pero lo que podemos ver con seguridad es que los precios más bajos del petróleo, el menor PIB, tiende a ser por cierto, se puede comparar con países que son importadores de petróleo por ejemplo, India o Japón o Corea del Sur o Alemania. ¿ Cómo les influyeron los precios del petróleo? Si son importadores netos de petróleo, probablemente significaría que los precios baratos del petróleo serían mejores para ellos. Pero es sólo una hipótesis que impugnaste, por cierto. Entonces sigamos ahora. Podemos construir una línea que mostrará cómo luce nuestro modelo con el Comentario BLT. No pongas como puedes ver, el patinador es más bien Deke vamos a predecir usando algunos precios concretos. Por ejemplo, ¿cuál será el PIB si el precio es de $10 universidad gratis y 70 mil millones? Bueno, esto es bastante pequeño para Rusia. ¿ Y qué pasa con el precio es de $150 casi $3 billones? Esto es mucho mejor, por cierto. Ahora hicimos predicciones basadas en Lee on the Price of oil, pero también podemos en co independencia sobre el año en nuestro modelo. Después de todo, veamos de nuevo nuestro detalle inicial. Ya ves, en 2000 y cinco y 2017 el precio del petróleo fue el mismo, alrededor de 54 dólares. Pero el PIB está completo con el frente en 2000 y cinco, sólo $764 mil millones. Y en 2017 ya más de 1.5 billones casi dos veces más, lo que significa que estás en este tiempo. La economía rusa probablemente se haya vuelto menos dependiente de los precios del petróleo. Entonces, ¿cómo podemos capacitar a nuestro modelo para predecir en base a los rivales son modelo en este caso, Will Lucas sigue Por qué es igual a una X más B más C donde por qué es nuestro PIB X es el precio del petróleo, y ese es el año y A, B y C son nuevos coeficientes milagrosos. Y ahora ¿cómo lo especificamos en nuestro código? En realidad, muy símbolo. Recuerda, teníamos una línea de código que usamos para entrenar al modelo Acabamos de añadir a los pies de naufragio dentro los corchetes dobles. Otro factor. La palabra año. comillas presionamos enter. De acuerdo, el modelo ha sido entrenado, y ahora predecimos primero toda la serie para todos los años. Ya ves, ya es mucho mejor inexactitud. El spread es sólo unos pocos hace, y así miles de millones. Tratemos de predecir cuál será el PIB. Por ejemplo, en 2025. Y si el precio del petróleo es correcto de 100 dólares, predecir y en registros, 2025 coma, 100 casi 2 billones 700 mil millones de dólares casi uno verdaderamente más que ahora. De acuerdo, creo que eso es todo por una agresión más magra. Si tienes alguna pregunta, por favor siéntete libre de preguntar en los comentarios o escribiendo directamente. También se puede tratar de encontrar datos, por ejemplo, de diferentes tipos de cambio de divisas o precios de acciones, y tratar de crear y entrenar un modelo basado en estos datos con el fin de hacer predicciones para el futuro 18. Cómo predicar sobrevivientes titán: tarea de clasificación: Hola, todos en esta conferencia, vamos a resolver un problema de clasificación. Vamos a predecir qué pasajeros sobrevivieron en el choque del Titanic. Para empezar, recordemos lo que la clasificación máquina de tareas claves de lording. Como el nombre lo indica, clasificación se utiliza para atribuir un objeto a un costo particular. Por ejemplo, en nuestras claves, quien clasifica al mejor cantante es o un sobreviviente o no. La clasificación se puede utilizar, por ejemplo, para entender si el mensaje entrante es un spam o no, o para entender si el banco debe dar el préstamo a una posible frontera si sólo hay dos clases, entonces el problema se llama comprar una reclasificación. Si hay varias clases, entonces esta es una clasificación multiclase. Si comparamos con la regresión, entonces en progresión, no tenemos clases. Simplemente predecimos un valor numérico. Por ejemplo, en episodios anteriores, predijimos el costo de un departamento con el volumen de PIB fuera de nuestro país. Hay un número específico, y en la clasificación, el número fuera de respuestas o clases es limitado. Nosotros mismos proporcionamos estas clases a la computadora, y la computadora determina a cuál de estas clases pertenece el nuevo objeto. Por lo tanto, pongámonos a resolver el problema de clasificación de color. En primer lugar, necesitamos descargar. El dato archivará sobre los sobrevivientes del Titanic de la página web de Kegel. Este es un sitio muy útil aquí. Puedes encontrar muchos ejemplos para el aprendizaje automático con explicaciones y soluciones por parte otros usuarios. A continuación, necesitamos subir este archivo a nuestra carpeta donde se almacenan nuestros archivos para Júpiter. De acuerdo, vamos a crear una esposa, un cuaderno en Júpiter y lo nombremos. Ahora vamos a importante. Bibliotecas de Fonda y Mumbai Genial. Entonces vamos a subir todo el archivo con sobrevivientes de detención en nuestro cuaderno de la FIFA, los datos son iguales a P D Door Treat CSC y entre paréntesis Titanic. TSV Ahora veamos cómo es nuestro fuego. Como se puede ver. Aquí están los datos de 891 pasajeros. Tenemos su edad de género. Qué clase de dar a los ocupados Y el problema más importante para nosotros es que la columna sobrevivió. Como se podría adivinar uno. Significa que el presente tu sobrevivió y cero que lamentablemente, no dejara llamar a esto revivió. Llámalo nuestra columna objetivo y tomemos cuatro columnas más, que en nuestra opinión, influyeron en si el mensajero podría ser salvado o suficiente. Estas columnas serán edad, sexo, sexo, clase de cabina y miedo al boleto. Llamémoslos Entrenamiento Collins. Por favor, sepa que ingresamos los nombres del carbón exactamente como se indican en el expediente. Es decir, decir, donde hay mayúsculas, es necesario ingresar mayúsculas. De lo contrario no se leerán los datos, pero no lo es. Crea a los rivales. Almacenará los datos que está iniciando estas columnas ex datos del dedo físico y entre paréntesis , escolaridad tren y ¿por qué se llama un Data? Y entre paréntesis columna Stargate. Otro punto muy importante en el aprendizaje automático es que entiendes cuando creamos modelos, no solo son importantes los algoritmos correctos, sino también la calidad de los datos en los que los capacitamos. Esto significa que en nuestros datos, no debe haber espacios o valores que ciertamente no puedan estar ahí. Por ejemplo, cuando se sienten llamados el establo, podrían simplemente olvidar dedo del pie entrar al villian algunas células donde de repente el valor de edad fue transferido a una célula con una justa por error. Por lo tanto, en grandes proyectos, cuando se trata de grandes cantidades, estos datos se comprueban muy estrictamente. Entonces en nuestro caso. ¿ Qué podemos hacer para comprobar la calidad de las citas nuestro proyecto? Al menos podemos verificar que no tenemos celdas vacías. Esto se hace usando la siguiente fórmula X entre paréntesis. Sex dot ahora es corchetes, no algunas briquetas, y lo hacemos por todas las columnas. Entonces resultó que en la columna de edad hay 177 pasajeros cuya edad no está en Dickie , que ¿qué haremos si quitamos todos estos 177 mensajeros? Estos pueden afectar en gran medida nuestra selección porque sin embargo ya es un número bastante grande . Entonces, ¿qué podemos hacer? Podemos darles el valor promedio o medio para estas columnas. Existe una función especial en el panda que alimenta estas celdas vacías con valores medios o medios . En la columna, usemos los valores de mediana Primero. Nos dieron una pequeña advertencia, pero se puede ignorar con seguridad. Vamos a comprobar si todas las celdas de cada columna Arfield otra vez. ¿ Vamos a seguir ahora? No en absoluto. Tenemos que hacer otra manipulación en nuestro modelo s killer. No podemos usar una llegada de fuerza como un Dorival categórico. A lo que quiero decir que se desarrolla en la columna de género de pasajeros se indican como el mundo masculino o femenino. Nuestro modelo no podrá utilizarlos para el entrenamiento. Sólo puede usar los datos milagrosos. Por lo tanto, lo que vamos a hacer. Simplemente renombraremos el Swartz en ceros y unos. Sustituyamos a las mujeres por el número uno y a los hombres por el número cero. Para ello, necesitaremos crear un diccionario. El diccionario es cuando dices que un meribel significa otro Dorival, como en un diccionario real, donde tienes traducciones para cuarto de un idioma a otro. El diccionario visto por teléfono te sujetas de forma segura y dentro tenemos a llegadas que están separados por un colon. Llamemos a nuestro diccionario, cavar dicked dedo físico puramente paréntesis correo electrónico, colon, cero coma hembra Y ahora vamos a reemplazar nombres, masculinos y femeninos, con números cero y uno con el siguiente fórmula. Este trabajo Lambda sólo significa que vamos a reemplazar nuestras palabras como en un espejo, como lo indica nuestro diccionario. Se puede ignorar que estos sean de Corning. No nos impiden continuar con nuestro trabajo. Más tarde, te mostraré cómo hacerlo durante los apagados. Entonces vamos a revisar con nuestro Coolum con el sexo de los pasajeros. Parece que ahora Bueno, ahora es tu envío una vez están por todas partes. Eso es lo que necesitas. Volvamos a revisar nuestra fecha. Como recuerdas. Para el conjunto de datos de entrenamiento, solo dejamos cuatro columnas. Edad, género, clase de Karen y Miedo. Entonces lo que es demasiado importante en el aprendizaje automático es dividir nuestro conjunto de datos en dos partes. El primero es la parte de entrenamiento capacitará a nuestro modelo en esta parte, y la segunda parte es una parte de prueba del conjunto de datos. Lo usaremos para comprobar qué tan bien está haciendo nuestro modelo su precisión. Entonces vamos a importante el modelo, que va a dividir nuestro conjunto de datos en muestra de entrenamiento y muestra de prueba a partir de su modelo de punto de color . Selección de subrayado de subrayado tren de importación subrayado. Subrayados de prueba por favor. Estos son indicadores estándar que tomamos el tamaño de la muestra de prueba es 1/3 o, si lo desea, puede tomarla 20 o 30% y el indicador de estado aleatorio es 42. Podrás considerarlos como indicadores básicos por defecto, por lo que ahora necesitamos capacitar a nuestro modelo en nuestro conjunto de entrenamiento nuestro modelo estará basado en el algoritmo de máquina vectorial de soporte más fino que divide linealmente nuestros datos en diferentes grupos. El concepto de este asunto es que estamos tratando de encontrar tal línea o si tenemos varias clases tal hidroplano, la distancia desde la cual a cada clase es máxima. Tal línea recta o hiper plano se llama el hiper plano separador óptimo. Los puntos fueron, como se puede decir, representantes de clases o vectores que, como cierra al Keiper separador limpian nuestros vectores de soporte frío. De aquí proviene el nombre de este método. De lo que es bueno la programación en por teléfono es que tiene muchas bibliotecas y modelos de trading hechos que ya contenían todos estos métodos. Es decir, no necesitamos componer y calcular todas estas fórmulas nosotros mismos. Simplemente importamos el modelo que necesitamos a nuestro proyecto. Entonces, importemos. El algoritmo ECM es nuestro por el cuaderno y CO son modelo pred de modelo de SK Lauren Import SPM. El lema de Fred es igual a como siendo weiner s V C. Ahora vamos a entrenar a nuestro modelo con nuestro conjunto de entrenamiento y los pies funcionan genial. Nos dieron confirmación de que el modelo se capacita nuevamente. Ignora estas modificaciones moradas. Ahora es el momento de hacer predicciones sobre la muestra de prueba. El hecho de que entre paréntesis se indique llamada cero en 10 significa que predecimos el 1er 10 valores a partir de nuestra muestra de prueba. Bueno, vemos ceros y unos, lo que significa si el Bessinger sobrevivió o no. Pero, ¿cómo sabemos si el modelo predijo correctamente estos fracasos? Para ello, utilizamos la función de puntuación, como se puede ver, casi 77% lo cual no está mal para nuestro primer modelo. Por cierto, puedes volver a correr este abrigo, y se le dará una precisión un poco diferente, pues cuando la máquina divide tu muestra en muestras de entrenamiento y prueba, no las capacita. Nosotros dedo del pie cada vez. La precisión será un poco diferente. También, recuerda donde encontramos 177 celdas vacías con edad, insertamos la mediana envejeciéndolas. ¿ Cuál será la precisión si insertamos la edad media usando el comentario medio y vemos cuál será el resultado? Aún así, es un poco diferente, eso es todo. Por ahora. El código python para esta tarea está, como de costumbre, apegado a esta conferencia, pero en todo caso, intenta teclear y ejecutar este tribunal tú mismo para consolidar el material que has aprendido. 19. Red neural: crea tu propia red neuronal para clasificar imágenes: Hola a todos. Me alegra decirles que al final de este episodio, construirás tu propia red neuronal que podrá reconocer imágenes de ropa. Para esta tarea se utilizará un conjunto de datos llamado Facial Menaced. Contiene 70,000 imágenes de diversos tipos de ropa, como pantalones cortos T, pantalones, zapatos, bolsos, bolsos, suéteres, sniggers de código y así sucesivamente. Cualquier especialista en aprendizaje automático comienza su formación. Con estos conjunto de datos. Es el llamado estándar para las especialidades de formación. Recordemos que las redes neuronales constan de varias capas. El dato en nuestras imágenes de claves se suministra a la capa de entrada. Entonces estos datos pasan por varias capas fuera de las neuronas. Durante este proceso, se les asignaron ciertos pesos, y luego tenemos una capa de salida que debería dar respuestas. En nuestro caso, la capa de salida nos dirá lo que se muestra en la imagen. En cuanto al aprendizaje automático, las estrellas se relacionan con problemas de clasificación. Se suministra una imagen a la capa de entrada fuera de nuestra red neuronal, y la capa de salida determina a qué clase de cierre pertenece esta imagen, ya sea un calzado código, camiseta o algún otro elemento de ropa. Son 10 esas crisis. En este conjunto, este conjunto de datos está abierto y se puede descargar libremente y utilizar para crear nuestra red neuronal . Fue creado por el salón, la empresa ubicada en Berlín, y el conjunto incluye 70,000 imágenes diferentes fuera de la ropa. En una de las conferencias anteriores sobre deplorar, mencionamos que las redes neuronales, para estar bien entrenadas, cargan la mayor cantidad de datos posible. Por lo tanto, 70,000 imágenes en principio es un buen número. Puedes descargar este conjunto de datos en los sitios web get top o Kegel. Mencionamos en conferencias anteriores que cuando formamos a nuestros modelos, dividimos la cabeza de nuestros datos en dos partes. La muestra de entrenamiento y la muestra de prueba y por lo tanto se establecen también se divide en dos partes. La primera parte que consiste en tos. 60 mil imágenes, se utilizarán para la capacitación, y la segunda parte de 10 mil imágenes se utilizará para las pruebas Con el fin de entender qué tan bien se capacitó nuestro modelo, Este conjunto de datos contiene dos archivos. El primer archivo con imágenes en el segundo archivo con etiquetas de clase, es decir con las respuestas correctas. Todas las imágenes son de 28 por 28 píxeles de tamaño y se ejecutan en tonos de crema y la gran intensidad de la imagen pixel diverso en una escala de 0 a 255 donde cero es una celda grande completamente blanca y 255 es un color craig fuerte. Y como estas imágenes son tan simples, eso es de sólo 28 por 28 píxeles y en las sombras de Cray. Esto te permite trabajar con ellos y estar con redes neuronales, aunque tu computadora no sea demasiado poderosa. Por lo que ya mencionamos eso a la moda. Posteriormente dijo la policía. Aquí hay 10 clases de artículos de ropa. Ahí se puede ver en la pantalla. Están numeradas del 0 al 9 en la cancha en Queen, cuando sometamos esta o aquella imagen a nuestra red neuronal, pero se le dará el número de clase al que pertenece cero si es una camiseta, cinco de estos zapatos y demás. Entonces, ¿qué tipo de datos de entrada se alimentarán a nuestra red neuronal? Como ya dijimos, En primer lugar, 28 por 28 pixels. Si se multiplican juntos, es 784 recoge celdas, y en segundo lugar, es el en densidad off los tonos de gris en cada píxel en densidad variarán de 0 a 255. Entendemos intentado que la computadora reciba toda la información en términos numéricos, razón por la cual nuestra red neuronal recibirá. Cada imagen es un set off 784 pixels, y cada celda grande tendrá un número específico de 0 a 255 dependiendo de la intensidad de los tonos de locos. Muy bien, entonces, sigamos adelante. El arquitectura fuera Nuestra red neuronal será muy simple. Consisterá sólo en tres capas. El nivel de entrada, una capa oculta y la capa de salida. La capa de entrada sólo transformará nuestras imágenes bidimensionales en una sola dimensión. Cada capa siguiente constará de cientos y 28 neuronas, y este número en realidad se puede cambiar. Por ejemplo, se puede hacer 512 u 800 la capa de salida constará de 10 neuronas. Debido a que tenemos 10 clases diferentes de clavo de olor, vamos a utilizar una red neuronal de baile, lo que significa que todas las neuronas del jugador actual estarán conectadas a todas las neuronas de la capa anterior. Cada una de las 128 neuronas de la capa principal recibirá los valores de los 784 píxeles la imagen y cada uno de los 10 Uinson. El nivel de salida nos dará la probabilidad de que esta imagen represente la clase de ropa dada . La probabilidad se reflejará en el rango de 0 a 1. Recordemos cómo una red neuronal puede hacer tales predicciones y cómo funciona todo. Usaremos conceptos como pesos, propagación de espalda y ocho libros primero, como una orina humana. La tarea, muchas veces neurona artificial, es obtener información, procesarla de cierta manera y pasarla a la siguiente neurona y las conexiones de dichas neuronas en inteligencia artificial que reciben datos de entrada, procesarlo y luego proporcionar los datos de salida. Dichas estructuras se denominan redes neuronales, por lo que ya mencionamos que cada neurona recibe una imagen en el formato de 784 células pico , y cada píxel tiene en un valor milagroso, dependiendo de la intensidad del color que es en términos generales. Cada neurona recibe un área específica o combinación de información numérica. Entonces al principio, cada neurona o sin inmersión se le da algún tipo de amigo y espera. Eso es significativo, o cuánto del valor de la neurona corresponde a una u otra imagen, y de esta manera se distribuye aleatoriamente. Quiero recalcar nuevamente que en la primera etapa, la suite se acaba de capacitarlos después de eso, cuando estos valores se transfieren a la capa de salida porque realmente sabemos lo que se muestra en la imagen. Porque tenemos respuestas a cada imagen, decimos a una red neuronal si la predicción era verdadera o falsa. Entonces si la red predijo correctamente que el peso de esta falla para esta conexión entre neuronas en diferentes capas aumenta. Y si nuestro modelo hizo una falsa predicción, reducimos el peso, y esto se llama propagación de espalda. Es decir, enviamos información de vuelta a las capas más nuevas y decimos ya sea para aumentar o disminuir el peso, dependiendo de si la predicción se hizo correctamente o no. Y este movimiento, cambio de puertas iguala asegura constantemente de ida y vuelta durante el entrenamiento. Cuando dijeron todos los datos, es decir, todas las imágenes van por este procedimiento. Se llama uno, un libro que perdura el entrenamiento fuera de las redes neuronales. Generalmente se usan varios ocho libros, por ejemplo, 10 o incluso 100. Esas son las mismas imágenes o corren 100 veces a través de todas las capas cada vez, cambiando el peso de las neuronas y haciéndolas más precisas, reduciendo así el error de predicción. Entonces vamos a ver cómo se puede crear y entrenar tal red neuronal incursionada en tensorflow. Estas son las bibliotecas en por teléfono que están diseñadas para trabajar con redes neuronales. Sí, y antes de que vamos a empezar, quiero hacer una reserva de inmediato que vamos a resolver este proyecto en el colapso de Google . Ya mencionamos en la primera conferencia por teléfono que este es un entorno en la nube de Google, que brindan la oportunidad de probar proyectos de machine learning directamente en el navegador. ¿ Por qué decidimos elegir el colapso de Google ahora? Porque para resolver este problema con las redes neuronales, necesitamos el tensor para biblioteca y la acaricia mi audio. Y si quieres instalarlos en tu computadora, muchas veces esto puede ser muy problemático. Y hay muchos errores con diferentes versiones o compatibilidad con el arte gráfico y otros errores. ¿ Dónde está si te ocupas del colapso de Google? No necesitas instalar nada solo tienes que crear un cuaderno y empezar a codificar de inmediato . Por lo tanto, en principio, si lo desea, puede intentar descargar tensorflow en su computadora. Esto se puede hacer usando el peep. Instalar el comando tensorflow en la Anaconda Common Flynt en tal ventana negra, pero eran muy alta probabilidad. Es posible que tenga ciertas dificultades para importar aún más estos modelos a su proyecto. Y si tales errores de instalación hacen una cura aquí, se pueden ver los errores más típicos y cómo se pueden vender. Por lo tanto, por el bien de la simplicidad. Y para evitar estas dificultades con la instalación de tensorflow en la computadora local, mostraremos cómo hacerlo en un colapso de Google, y aquí estás ciertamente no deberías tener ningún problema. Además, este llamado Framework de Google te da la oportunidad de usar más ron del que está disponible en tu computadora. De acuerdo, empecemos y fue creado,ya sabes, ya sabes, libro en el colapso de Google. Ahora, en un principio, necesitamos importar las bibliotecas y Mondial Sweeney. En primer lugar, vamos a importar todas las bibliotecas principales. No necesitaremos, por mes últimamente dedo del pie trabajar con Cerezas y visualizar nuestros dibujos. Como mencionamos, Tensorflow y Cara's son necesarios para construir redes neuronales. El conjunto de datos policiales de moda ya está disponible en cuidarnos porque es uno de esos conjuntos de datos populares en los que los científicos de datos antiguos aprenden redes neuronales. A continuación importamos el modelo secuencial. Se trata de un modelo de red neuronal en el que las capas van una apagada se apagan por ahí. Entonces vamos a importar el jugador tipo denso, lo que significa que nuestras capas estarán totalmente interconectadas. Y por último, que también importan diversas utilidades que ayudarán a traducir nuestros datos en antiguos adecuados para cuidarnos. Muy bien, Así que como ya tenemos datos importantes del paciente establecidos al principio, ahora podemos cargar los datos en nuestro proyecto. Como dijimos en conferencias anteriores en machine learning, nuestros conjuntos de datos se dividirán en dos partes de capacitación y muestras de prueba. Y cada una de estas partes contendrá la parte X. Estas son las imágenes y parte por qué esto fuera Las respuestas a qué clase estas son esa imagen pertenece. También se les conoce como etiquetas. Los topónimos no se incluyen en el conjunto de datos. Entonces vamos a escribirlas nosotros mismos. Okey, entonces ¿qué sigue? Ahora necesitamos preparar procesar nuestros datos antes de crear una red neuronal, y antes de hacer eso, Veamos primero cómo se ven nuestras imágenes entre corchetes gana o el índice de 0 a 59,999. Debido a que tenemos 60 mil imágenes en el conjunto de entrenamiento, algunas imágenes son bastante fáciles de entender, y algunas son casi incomprensibles en el costado de la imagen. También se pueden ver los valores de intensidad de píxel de 0 a 255. Si el grande así es lo más oscuro posible. Tiene un valor de cero anticuerpos lo más ligero posible. Tiene un valor de 255. Entonces, habiendo visto nuestras imágenes ahora vamos a hacer normalización de datos. ¿ Qué significa? Esto significa que para mejorar los algoritmos de optimización que se utilizan en el entrenamiento redes neuronales, dividimos la intensidad de cada píxel en la imagen por 255 para que la intensidad ahora esté en el rango de 0 a 1, y lo haremos tanto para el conjunto de entrenamiento como probarlo. Vamos a comprobarlo. Genial. Ahora el píxel en densidad es de 0 a 1, y será más fácil para las redes neuronales trabajar con tales valores por la forma en que podemos representar varias imágenes en una pantalla a unas. Para hacer esto, necesitas escribir algunas líneas de código. Vamos a mostrar la 1ra 25 imágenes cinco en un troll, y también mostraremos los nombres de sus clases debajo de ellas. Se ve fabuloso, no lo hace si quieres, puedes hacer las imágenes en blanco y negro, así que eso es genial. Nosotros hemos preparado los datos, y entonces podemos empezar a crear una red neuronal en redes neuronales. El libro principal del edificio es el lineal, y la parte principal de deplorar es combinar capas simples. Incuriosos, igual que en máquina fueron Inc En general, las redes neuronales se llaman modelos, y como ya hemos mencionado, vamos a utilizar este tipo secuencial de modelo, lo que significa que nuestro las capas irán en secuencia una por una. Entonces vamos a crear un modelo secuencial. El primer nivel, que se indica como aplanar conversar el formato fuera de las imágenes de un área bidimensional donde cada imagen era un área de 28 por 28 píxeles en un área unidimensional fuera de 28 por 28. Eso es ahora la imagen va a entrar a la neurona es una cuerda fuera de 784 células pico siguiente ir a capas demasiado densas. La primera capa densa es la capa de entrada totalmente conectada. Aquí tenemos que decidir cuántas neuronas tendrán en esta capa. De hecho, ya se han hecho muchos experimentos cuando estos datos se establecen, y una de las predicciones más exitosas fue la capa de entrada de 128 neuronas. Si bien si lo deseas, puedes hacer 512 u 800 neuronas a tu discreción. A continuación, montamos la función de activación. En nuestro caso para la capa de entrada principal, especificamos la función de activación real you. Mostró buena eficiencia en redes neuronales tan simples, y luego la última capa es la capa de salida densa. Tendrá 10 neuronas exactamente como el número de nuestras clases. La función de activación será la función de marcas suaves. Esta función nos permite regresar y muy a menudo la probabilidad estimar la parte de la cual es una. Cada nota sobre orina contendrá una estimación que indique la probabilidad de que la imagen actual pertenezca a una de nuestras 10 clases. Antes de entrenar el modelo, necesitamos hacer algunos ajustes menores más. A esto se le llama compilación mortal. Al compilar el modelo, especificamos los parámetros de entrenamiento. Es para optimizador. En nuestro caso, utilizamos el S G D, que significa descenso de gradiente estocástico. Este optimizador es muy popular para resolver problemas fuera del reconocimiento de imagen. Uso de redes neuronales al aire libre instantáneamente Si quieres, puedes usar el Optimizer Adam. La función de error está indicada por el parámetro de pérdida en nuestro modelo. En lugar de la verdad estándar significa desviación cuadrada, vamos a usar entropía cruzada categórica. Esta función de error funciona bien en problemas de clasificación. Cuando hay más de dos clases en el parámetro S es la calidad. Nosotros indicamos precisión. Esa es la proporción fuera de respuestas correctas. Después de compilar el modelo, podemos imprimir sus parámetros utilizando la función de resumen del modelo. En principio, todo está listo. Vamos a la fecha está preparada. Creamos y compilamos una red neuronal. Ahora podemos iniciar su entrenamiento. El entrenamiento fuera de las redes neuronales se realiza igual que en otras tareas de aprendizaje automático con la ayuda de la función de los pies. Y como tenemos un problema de clasificación que pertenece al aprendizaje supervisado, pasamos a esta función. Tanto la muestra de entrenamiento, siguiente tren como las respuestas o etiquetas. ¿ Por qué entrenar? También debemos precisar el perímetro. El número fuera de una caja, como mencionamos antes. Un libro e es cuando todo nuestro líder dijo base para una red neuronal unos. Te indicamos 10 8 libros, lo que significa que vamos a entrenar a nuestra red neuronal 10 veces en la totalidad de los datos, dijo. Es decir, en todas las 60 mil fotos, puede preguntar cuántos libros se necesitan. La respuesta va a depender muy de diferentes conjuntos de datos. Pero el principio básico es que cuanto más diversas sean nuestras ciudades de datos, más deseable es utilizar más ocho libros, y también probablemente deberías tener en cuenta el apagado de tu computadora. Si tienes una cantidad muy grande de datos y todos son muy diferentes, entonces cada uno un libro tomará más tiempo. Por lo tanto, por la razón de simplicidad, utilizaremos sólo 10 8 libros. Podrás usar más libros e si quieres. Simplemente tomará más tiempo, y la calidad probablemente no será significativamente mejor por lo que podemos ver que nuestra formación ha comenzado. Aquí viene el primero, un libro y luego de la línea de cada uno un libro que alguna vez función se indica a través del parámetro perdido y la precisión de las predicciones. Como podemos ver mientras se está entrenando nuestra red neuronal, es decir, con cada subsiguiente un libro, el muy apagado el error disminuye. ¿ Dónde está la predicción? Aumenta la precisión. Por lo que el último un libro ha terminado, y esto significa que también se completa el entrenamiento fuera de nuestra red neuronal. Vemos que la precisión es ligeramente inferior al 90%. Bueno, para una red neuronal que consiste en tos, sólo dos capas principales, estas cualidades bastante buenas. Ahora comprobemos qué precisión tendría en la muestra de prueba. Recuerda que para el entrenamiento, utilizamos 60 mil imágenes de la muestra de entrenamiento y 10 mil imágenes estaban en una muestra de prueba, y nuestra red neuronal no las vio. Por lo tanto, veamos cuál será la precisión de predicción en estas imágenes de prueba. Como se puede ver, la calidad de la predicción es ligeramente menor, pero aún bastante alta. Entonces, felicitaciones a ustedes han construido y entrenado su primera red neuronal. Ahora, después de completar el entrenamiento, podemos utilizar nuestra red neuronal para predecir lo que se muestra en las imágenes. Para ello, utilizamos el método de predicción fuera de nuestro modelo. Vamos a predecir en las imágenes de la muestra de capacitación en la que se capacitó nuestro modelo. Entonces escribimos X train entre paréntesis y ahora imprimamos lo que nuestro modelo predecirá entre corchetes. Ponemos el índice fuera de la imagen que comienza con la imagen con el índice cero para que podamos ver 10 valores diferentes, cada valor que representa la probabilidad fuera de nuestra imagen perteneciente a cada una de nuestras 10 clases, cada valor y después tiene un menos ocho o menos nueve, lo que significa que están en el decreto menos nueve es decir, después de un cero. Tenemos unos ceros más, y esa es la probabilidad es cercana a cero y sólo un valor con el menos un grado, ve 9.90 algo menos uno. Esto significa 0.99 cientos que está muy cerca de uno. Y como recuerdas en nuestras claves, número uno representa 100% de probabilidad. De esta manera, nuestro modelo tenemos probabilidad fuera casi el 100% predice que estas imágenes corresponden a estas clases en caso de que sea difícil para ti encontrar cuál sobre los valles desde nuestra salida es el máximo podemos usar la función de marcas ARG de la biblioteca numérica. Simplemente da el valor máximo. Y así se nos da el valor máximo con índice nueve. Ahora vamos a revisar y derivar la respuesta correcta de nuestras etiquetas. Entonces lo son para responder por esta imagen resultó ser la misma que fue predicho por nuestro modelo. Eso significa que nuestro modelo está funcionando. Se puede probar con otras imágenes. Simplemente reemplaza el número en el índice por cualquier otro número de nuestra muestra de 60,000 imágenes . Bailemos el número 12. De acuerdo , nos dice que esta es una clase con Índice cinco. Echemos un vistazo a la imagen. ¿ Qué es? Es una sandalia. En realidad, si no quieres buscar las imágenes cada vez, simplemente podemos imprimir el nombre de la clase insertando el índice de imagen de Corey's Point Inc. Está bien, eso es crear mis felicitaciones. Ve, una vez más, espero que tus redes neuronales funcionen simplemente a la perfección. Y ahora se resume lo que hemos cubierto. Importamos todo el dato dicho con imágenes, las dividimos en muestras de capacitación y prueba. Entonces optimizamos un poco estas imágenes. Después de eso, creamos la arquitectónica para una red neuronal, que en nuestro caso puede ver activó sólo tres capas compiladas el modelo, lo que significa que especificamos los parámetros de entrenamiento. Después entrenamos nuestra red neuronal usando ejemplo de cultivo y finalmente probamos ocho en nuestra muestra de prueba. Ahora puedes tratar de predecir otras imágenes en las muestras del concurso de capacitación. También puedes ajustar un poco el modelo. Por ejemplo, puedes usar otro optimizador, Digamos, Adam, o cambiar el número de ocho libros y así sucesivamente. Por cierto, en el Keg, un sitio web, hay varios Gershon's off otros tipos de redes neuronales con diferentes números fuera capas y diferentes arquitecturas para la moda. Estos proyectos, por lo tanto, se puede buscar e intentar hacer otra red neuronal para este conjunto de datos. Espero que esta lección haya sido útil y haya contribuido a una mejor comprensión de lo que son las redes neuronales , cómo entrenarlas y utilizarlas, particularmente para el reconocimiento de imágenes. Si tiene preguntas, sus comentarios y espero verlos dentro de nuestras nuevas conferencias y cursos, 20. Redes neuronales para el análisis de texto: Hola ahí. En esta conferencia vamos a aprender a utilizar redes neuronales para analizar texto. También crearemos nuestra propia red neuronal que analizará críticas de películas y entenderá si sus puntos de vista son positivos o negativos. Pero antes de pasar a la parte práctica de crear nuestra red neuronal, echemos un vistazo a qué tipo de tareas de análisis de texto se utilizan las redes neuronales para hoy. En primer lugar, para la clasificación de textos. Redes neuronales entrenadas nos ayudan a definir a qué tema o obtener R3, se refiere el texto dado. Por ejemplo, los artículos de noticias se pueden clasificar en conseguir un aumento como la política y la economía, deporte, el estilo de vida, y así sucesivamente. Una de las tareas más populares hoy en día es, por supuesto, traducción automática de un idioma a otro. Si comparas, por ejemplo, la traducción de Google Translate, que se utilizó hace cinco o siete años, y la traducción que da hoy, notarás que son traducciones completamente diferentes en términos de calidad. actualidad, la traducción automática se realiza con una muy alta calidad, y esto es gracias al uso de redes neuronales con arquitecturas complejas. También es importante que muchas empresas y marcas hoy entiendan cómo los tratan sus clientes y usuarios, para entender la lealtad de la marca entre los clientes. Y las redes neuronales se utilizan hoy en día para determinar el sentimiento emocional de los textos, como comentarios o reseñas. Ya sean positivas, negativas o neutrales. Tarea se llama análisis de sentimiento. Y muchas marcas utilizan el análisis de sentimientos en las redes sociales para entender el nivel de reputación de su marca. Tareas de generación de texto también son populares hoy en día cuando las redes neuronales pueden generar y crear texto completamente nuevo y comunicarse con los usuarios, por ejemplo, a través de bots de chat. Como podemos ver, las redes neuronales se pueden utilizar en diversas tareas relacionadas con el análisis de texto. Y las redes neuronales te muestran los mejores resultados en este tipo de tareas en comparación con otros algoritmos de aprendizaje automático. Muy bien, entonces, ahora unas palabras sobre cómo vamos a utilizar las redes neuronales para analizar textos. En primer lugar, vamos a utilizar las bibliotecas Keras y TensorFlow, que ya hemos utilizado en conferencias anteriores para construir redes neuronales para clasificar imágenes. Cuentan con módulos preinstalados que harán que nuestra capacitación sea mucho más fácil. En segundo lugar, bueno, recuerda que una red neuronal sólo puede operar con números y el texto es un conjunto de caracteres y símbolos. Por lo tanto, tendremos que transformar nuestro conjunto de símbolos, palabras y oraciones en un conjunto de números. Esto se puede hacer de diferentes maneras. Y en tercer lugar, para construir redes neuronales, utilizaremos la plataforma colaborativa de Google, una plataforma en la nube gratuita de Google, donde ya están preinstaladas unas populares bibliotecas de aprendizaje automático. Y también obtienes GPU bastante potentes en esta plataforma de forma gratuita. El rendimiento para Google Collab es mucho mayor que la mayoría de las tarjetas gráficas que se pueden instalar en una computadora portátil o computadora personal donde es Google proporciona dichos recursos informáticos de forma gratuita, trabajando con máquina problemas de aprendizaje. Entonces veamos cómo podemos representar el texto en una forma digital adecuada para una red neuronal. Recordamos que los datos de entrada a la red neuronal sólo pueden ser números. Y la red neuronal sólo puede funcionar con números. Ahí se están formando diversas operaciones matemáticas con ellos. Por lo tanto, cuando utilizamos una red neuronal para analizar textos, debemos transformar nuestros datos de texto en un conjunto de números. En la conferencia anterior, cuando analizamos imágenes de ropa, todo fue bastante sencillo ahí porque podemos digitalizar cada imagen como un conjunto de números que corresponden a intensidades de píxel de 0 a 255. Si trabajamos con datos de forma categórica, por ejemplo, es x de un hombre o una mujer. Entonces todo aquí también es bastante símbolo. Recuerda cuando analizamos cuál de los pasajeros sobrevivió en Titanic, reemplazamos sexos de pasajeros masculinos, femeninos por ceros y unos. Es decir, transformamos las palabras en números. Cuando nos ocupamos de textos complejos, aquí es un poco más complicado. También convertimos texto en un conjunto de números, y este proceso se llama vectorización. Veamos cómo se hace. En el primer paso, dividimos el texto en partes separadas, cada una de las cuales se presentará digitalmente por separado. Esto se llama tokenización, donde cada parte separada es un token. Y puede haber varias opciones de cómo dividir las etiquetas en tokens. Podemos dividir el texto en caracteres separados como letras, números, signos de puntuación, y dar valor numérico a cada uno de estos caracteres por separado. O podemos dividir el texto en palabras y dar un número o un conjunto numérico ahora a caracteres individuales, pero a palabras enteras. O ahora también hay un enfoque cuando el texto se divide en oraciones enteras y cada oración se da como número separado o un conjunto de números. En nuestro caso, dividiremos el texto en palabras separadas. En la siguiente etapa será la vectorización, donde cada token se convertirá en un conjunto de números, ya sea por codificación simple o por vector una presentación en formato de codificación one-hot, o por vector denso. 21. Redes neuronales para el análisis de sentimientos (reseñas de películas IMDB): Entonces ahora que hemos llegado a conocer un poco de cómo se utilizan las redes neuronales para analizar texto. Tratemos de construir nuestra propia red neuronal. En este episodio, vamos a crear y utilizar una red neuronal para determinar si las críticas cinematográficas en IMDB son positivas o negativas. Este sitio web contiene información sobre la mayoría de las películas. Son costos de descripción, trailers, y por supuesto, reseñas de espectadores. Como ya hemos mencionado, la tarea del análisis de sentimientos es muy popular en el mundo moderno. Muchas empresas y marcas quieren saber cómo los tratan sus clientes y usuarios a partir de sus comentarios en foros y redes sociales. El conjunto de datos de críticas de películas de IMDB es bastante popular entre quienes estudian el aprendizaje automático y las redes neuronales. Se puede descargar el conjunto de datos desde este sitio web. Y alternativamente, podemos descargarlo inmediatamente de las bibliotecas en Keras usando sólo una línea de código. Los desarrolladores de transportistas ya han preprocesado las revisiones, y por lo tanto, nos será más fácil trabajar con esta base de datos. Por lo que este conjunto de datos se divide en dos partes, 25000 revisiones para capacitación y 25000 de uso para pruebas. El número de revisiones positivas y negativas es el mismo. Y este conjunto de datos solo incluye revisiones positivas y solo negativas. En este conjunto de datos no se incluyeron revisiones neutrales. Para no complicar el entrenamiento, las revisiones que fueron calificadas de siete estrellas o superior de 10 se consideraron positivas. Si bien he usado que se calificaron cuatro estrellas son más bajas. Considéralo negativo. El conjunto de datos se ve de la siguiente manera. En una columna, podemos ver que he usado, y en la siguiente columna están enfureciendo ya sea positiva o negativa. Este conjunto de datos representa el aprendizaje supervisado porque para cada revisión, tenemos la respuesta correcta. 0 significa negativo, uno positivo. En el aprendizaje automático, esto se conoce como una tarea de clasificación binaria porque sólo tenemos dos clases, ya sea negativa o positiva. Muy bien, Entonces hemos hecho la parte teórica y nos familiarizamos con el conjunto de datos. Ahora pasemos a la formación práctica. Primero lo primero, y vamos a importar las bibliotecas necesarias, Keras y TensorFlow. Keras incluye herramientas para grupos de trabajo conjuntos de datos populares codificando conjuntos de datos del IMDB. También conectamos la biblioteca NumPy para vectorizar nuestros datos y visualizar metabólicamente los resultados de nuestra capacitación. Entonces con esta línea de código, cargamos un conjunto de revisiones IMDB. Entre paréntesis. Te indicamos que estamos cargando conjunto de entrenamiento GAN x tren y tren y el conjunto de pruebas x prueba, y prueba. También indicamos el número máximo de palabras únicas que utilizaremos para analizar el texto. Porque si no limitamos este número, entonces el número de palabras únicas en las 50 mil revisiones será enorme y será más difícil y mucho más largo para nuestra red neuronal analizar grandes conjuntos de datos. Por lo tanto, limitaremos nuestro conjunto de datos a 10 mil palabras que se usan con mayor frecuencia en orden de Estados Unidos. Las guerras que son menos comunes no se incluirán en este conjunto de datos. Veamos cómo Keras cargó los datos. Tomemos un poco de reutilización. Número nueve, vemos que en lugar del texto de la revisión, tenemos un conjunto de números. Cada uno de estos números representa una palabra de la revisión original. Es decir, hay tokenización a nivel de palabras. Cada número corresponde a una palabra. Como ya dijimos, que los desarrolladores de cuidadores ya han traducido palabras en números y así prepararon estos conjuntos de datos para nosotros. Veamos ahora cuál es el formato de las respuestas correctas. Como mencionamos al principio, uno significa positivo para ti y 0 significa que han usado negativo. Echemos un vistazo a algunas otras vistas. El conjunto de datos IMDB utiliza codificación de frecuencia de palabras. Esto significa que en el texto, cada palabra es reemplazada por un número que corresponde a la frecuencia de su ocurrencia en este texto, la palabra más común se reemplaza por una. Una palabra que es un poco menos común es reemplazada por dos, y así sucesivamente. Podemos descargar el diccionario que se utilizó para la codificación llamando al método de índice de palabras IMDB. Se trata de un diccionario Python en el que la clave es una palabra y el valor es una frecuencia con la que esa palabra aparece en las revisiones. Y como vemos, estos son exactamente los números que se utilizan en las revisiones en lugar de las palabras. Cuanto mayor sea el número, menos frecuentemente aparece ese trimestre correspondiente en las revisiones. Pero vamos a crear un diccionario inverso que determinará la palabra por número. Esto se hace utilizando el siguiente código. En el ciclo, repasaremos todos los elementos del índice de palabras y crearemos un diccionario índice de palabras inversas en el que la clave será el número y el valor será la palabra que corresponda a este número. De acuerdo, Ahora escribamos 30 palabras que son las más comunes en nuestras reseñas. Como puedes adivinar, lo más probable es que estas palabras sean diversas conjunciones, preposiciones y artículos. Y las palabras más populares que usamos con mayor frecuencia en nuestro discurso diario. Ahora usemos nuestro diccionario inverso para descodificar algunas críticas. De acuerdo, ahora podemos ver lo que estaba escrito en su opinión. O bien, como hemos visto, nuestras reseñas ahora están representadas por conjuntos de números del 0 al 9,599. Pero para facilitar el funcionamiento de nuestra red neuronal, vamos a representar sus puntos de vista como vector en el formato de codificación one-hot. En términos generales, ahora, cada uno de ustedes será un vector, cuyo tamaño será de 10 mil. En este vector sólo contendrá ceros y unos en aquellas posiciones que correspondan a las palabras presentes en esta revisión. Para crear dichos vectores, utilizaremos la función de secuencias vectorizadas. la función que pasamos secuencias, es decir nuestro dataset x train index test, y las dimensiones deseadas de los vectores, en nuestro caso 10 mil. Con su línea de resultados, hemos creado un vector que contiene todos los ceros para cada posición de palabra. Después, usando el ciclo, pasamos por todos los elementos de la secuencia. Y por cada palabra que está presente en la revisión, dijimos el valor correspondiente a uno y le devolvemos el resultado. Ahora usaremos esta función para procesar el conjunto de datos de capacitación y el conjunto de datos de prueba. De acuerdo, entonces, y ahora veamos cómo se ven nuestros conjuntos de datos. Tomemos la revisión número 19. Anteriormente nuestras revisiones parecían matrices con números que representaban palabras. Ahora nuestra revisión es una matriz con sólo ceros y unos. Usando la función Len, podemos comprobar que la longitud de cada revisión sea ahora de 10 mil, como hemos indicado. Y éstas corresponde al número máximo de palabras que utilizamos para el análisis. También podemos ver la forma de todo nuestro conjunto de entrenamiento. Como se puede ver, hay 25000 revisiones y cada una de ellas tiene 10 mil elementos de largo. Bueno, ahora que hemos preparado nuestros datos, construyamos nuestra red neuronal que clasificará, revisará y determinará si sus revisiones son positivas o negativas. Crearemos el modelo secuencial, cual tendrá tres capas densas. El primer segundo jugador tendrá 16 neuronas, y la capa de salida tendrá sólo una neurona porque tenemos una tarea de clasificación binaria. Es decir, sólo tenemos dos clases porque no son sólo dos tipos de revisiones y elegimos una. Si la salida es 0, entonces la retroalimentación es negativa. Si es uno, entonces la retroalimentación es positiva. En lugar de tres capas, puedes usar más. También se puede cambiar el número de neuronas en la primera, segunda capas y ver cómo cambia el resultado como una función de activación. En las capas 1 y 2, vamos a utilizar una función relu semi liner. Y en la capa de salida, se utilizará una función sigmoide. La función de activación sigmoide da el valor en el rango de 0 a uno, que es una coincidencia perfecta para las tareas de clasificación binaria. Después de crear el modelo, vamos a compilar nuestra red neuronal. Utilizamos el optimizador de prop LMS, pero también puedes usar el optimizador Adam que quieras. La función de error es entropía cruzada binaria. Binario porque sólo tenemos dos clases. El métrico de la calidad de la red neuronal es la precisión. Esa es la proporción de respuestas correctas. Y ahora sólo necesitamos entrenar nuestra red neuronal utilizando el método fit. Vamos a establecer el número de épocas en 20, el tamaño del lote 128. Y vamos a dividir el conjunto de datos y utilizar el 10 por ciento del mismo como conjunto de validación. Por lo que como podemos observar, el porcentaje de respuestas correctas en el conjunto de datos de capacitación cercano a 100 y en el conjunto de validación que estalló en digital, correcta, en fuentes alrededor del 85 por ciento. Visualicemos la calidad de la formación. Y ahora el último paso es probar la precisión del modelo en el conjunto de datos de prueba que no se utilizó para la capacitación. Es que podemos ver la precisión es un poco por debajo del 85 por ciento, cual generalmente no es malo, pero sin duda puede ser mejor. Entonces en esta conferencia, hemos aprendido a construir una red neuronal para hacer el análisis de sentimiento o para su uso para que nuestro modelo pueda determinar si su opinión fue positiva o negativa con base en el texto de la revisión. Como ya mencionamos, este es un problema bastante popular en el mundo moderno, y las empresas y marcas lo utilizan para entender cómo son consumidores y clientes los tratan y cuál es su lealtad de marca. Espero que esta conferencia haya sido útil y espero verlos en los próximos episodios.