IA de generación 0-100: de lo básico a las herramientas de Google Cloud | Reza Moradinezhad | Skillshare
Buscar

Velocidad de reproducción


1.0x


  • 0.5x
  • 0.75x
  • 1x (Normal)
  • 1.25x
  • 1.5x
  • 1.75x
  • 2x

IA de generación 0-100: de lo básico a las herramientas de Google Cloud

teacher avatar Reza Moradinezhad, AI Scientist

Ve esta clase y miles más

Obtenga acceso ilimitado a todas las clases
Clases enseñadas por líderes de la industria y profesionales activos
Los temas incluyen ilustración, diseño, fotografía y más

Ve esta clase y miles más

Obtenga acceso ilimitado a todas las clases
Clases enseñadas por líderes de la industria y profesionales activos
Los temas incluyen ilustración, diseño, fotografía y más

Lecciones en esta clase

    • 1.

      Introducción a GenAI

      2:50

    • 2.

      L1V1: IA tradicional

      18:42

    • 3.

      L1V2: aprendizaje automático

      19:10

    • 4.

      L1V3: aprendizaje profundo

      14:55

    • 5.

      L1V4: discriminativo versus generativo

      11:54

    • 6.

      L2V1: transformadores

      7:53

    • 7.

      L2V2: IA de generación

      14:52

    • 8.

      L2V3: aplicaciones de IA de generación

      12:47

    • 9.

      L2V4: ingeniería rápida

      11:24

    • 10.

      L3V1: LLM

      6:41

    • 11.

      L3V2: beneficios de LMM

      10:23

    • 12.

      L3V3: ejemplos de LLM

      10:13

    • 13.

      L3V4: modelos de base

      12:51

    • 14.

      L3V5: desarrollo de LLM

      5:23

    • 15.

      L3V6: LLM de ajuste

      8:54

    • 16.

      L4V1: hoja de aplicaciones

      6:56

    • 17.

      L4V2: creador de aplicaciones de generación

      6:11

    • 18.

      L4V3: Maker Suite

      10:16

    • 19.

      L4V4 Estudio de IA generativa

      12:56

    • 20.

      Demostración de proyectos: hoja de aplicaciones sin código

      12:06

  • --
  • Nivel principiante
  • Nivel intermedio
  • Nivel avanzado
  • Todos los niveles

Generado por la comunidad

El nivel se determina según la opinión de la mayoría de los estudiantes que han dejado reseñas en esta clase. La recomendación del profesor o de la profesora se muestra hasta que se recopilen al menos 5 reseñas de estudiantes.

58

Estudiantes

--

Proyecto

Acerca de esta clase

Bienvenido al curso completo de IA generativa: tu guía definitiva para dominar el emocionante reino de la inteligencia artificial generativa. Este curso te proporciona los conocimientos y habilidades esenciales para prosperar en este campo en rápida expansión, que se proyecta que alcance un valor de $ 100 mil millones en los próximos años.

Con horas de contenido detallado, diapositivas de clase mundial y una variedad de recursos valiosos, este es el curso de IA generativa más detallado que existe y se centra en los fundamentos de esta tecnología innovadora. Tanto si no tienes experiencia en programación como si quieres profundizar tu comprensión, este curso te llevará de principiante a experto. He aquí por qué:

  • El curso es impartido por un doctorado en ciencias de la computación, con numerosas publicaciones y años de experiencia en la enseñanza en universidades de todo el mundo.
  • Trabajarás con las herramientas y tecnologías innovadoras que usan las principales compañías como OpenAI y Google.
  • No se toman atajos: espera presentaciones, cuestionarios, proyectos prácticos, recursos descargables, artículos y mucho más atractivos.

Desarrollado a través de años de enseñanza a nivel universitario, el plan de estudios ha sido refinado en función de los comentarios de los estudiantes y las pruebas del mundo real.

Hemos enseñado a miles de estudiantes a programar, muchos de los cuales se han convertido en desarrolladores profesionales o han iniciado sus propias empresas tecnológicas.

A través de tutoriales en video paso a paso, obtendrás todo lo necesario para tener éxito en el campo de la IA generativa.

El curso incluye varias horas de tutoriales en video HD y refuerza tu aprendizaje con consejos prácticos.

Los temas clave cubiertos en este curso completo incluyen:

  • El papel del diseño rápido en la generación de resultados específicos
  • Modelos básicos y su influencia en la IA generativa
  • Creación de aplicaciones con AppSheet e integración de IA generativa
  • Diferentes tipos de modelos de IA generativa (texto a texto, texto a imagen, etc.)
  • Generación de código con herramientas como Bard (Gemini), ChatGPT 3.5 y GPT-4
  • Modelos de lenguaje grandes (LLM) y sus ventajas
  • Técnicas de ingeniería rápida para LLM
  • Creación de motores de IA conversacionales
  • La importancia del aprendizaje profundo en la IA
  • Modelos específicos de tareas en el jardín de modelos
  • Entrenamiento de modelos e implementación con Gen AI Studio y Maker Suite
  • Creación de aplicaciones de IA generativas personalizadas

Al final del curso, estarás preparado para aplicar técnicas de IA generativa para dar vida a tus ideas creativas y desarrollar soluciones innovadoras en varias industrias.

Acompáñanos hoy mismo y espera lo siguiente:

  • Conferencias en video animado
  • ~4 horas de instrucción de un profesor de universidad
  • Assignments y proyectos de IA generativos prácticos
  • Cuestionarios y oportunidades de práctica
  • Artículos de IA generativa a medida
  • Más de $ 1000 en materiales y currículo de IA generativa

¿A quién está dirigido este curso? 

  • Cualquier persona interesada en comprender el campo de la inteligencia artificial en rápida evolución con potencial creativo.
  • Para aquellos que sienten curiosidad por explorar el fascinante mundo de la IA generativa y sus aplicaciones innovadoras.
  • Individuos que buscan aprovechar el poder de la IA generativa para fines comerciales.
  • Estudiantes que quieren un curso único y completo que cubra todo lo que necesitan saber sobre la IA generativa.

Conoce a tu profesor(a)

Teacher Profile Image

Reza Moradinezhad

AI Scientist

Profesor(a)

Hello, I'm Reza.

I am passionate about designing trustworthy and effective interaction techniques for Human-AI collaboration. I am an Assistant Teaching Professor at Drexel University College of Computing and Informatics (CCI), teaching both undergraduate and graduate level courses. I am also an AI Scientist at TulipAI, leading teams of young students, pushing the mission of empowering media creators through ethical and responsible use of Generative AI.

I received my PhD in Computer Science from Drexel CCI. My PhD dissertation focused on how humans build trust toward Embodied Virtual Agents (EVAs). I have collaborated with MIT Media Lab, CMU HCII, Harvard University, and UCSD, publishing and presenting in venues such as Springer Nature, ACM CHI, and ACM C&C. I have been re... Ver perfil completo

Level: All Levels

Valoración de la clase

¿Se cumplieron las expectativas?
    ¡Superadas!
  • 0%
  • 0%
  • Un poco
  • 0%
  • No realmente
  • 0%

¿Por qué unirse a Skillshare?

Mira las galardonadas Skillshare Originals

Cada clase tiene lecciones cortas y proyectos prácticos

Tu membresía apoya a los profesores de Skillshare

Aprende desde cualquier lugar

Ve clases sobre la marcha con la aplicación de Skillshare. Progresa en línea o descarga las clases para verlas en el avión, el metro o donde sea que aprendas mejor.

Transcripciones

1. Introducción a GenAI: Hay muchos cursos por ahí sobre IA generativa. Pasé mucho tiempo repasando muchos de ellos porque quería asegurarme de que en este curso, te estoy dando todos los fundamentos que necesitas para entender completamente qué es la IA generativa Y encima de eso, te voy a dar algunos ejemplos prácticos, algunas demostraciones prácticas sobre diferentes herramientas que utilizan IA generativa que pueden ayudarte hoy Soy el Profesor Reza, y doy clases a estudiantes de pregrado y posgrado temas de informática e inteligencia artificial. También tengo miles de estudiantes en línea. He realizado investigaciones sobre IA y he colaborado con prestigiosos institutos como MIT Media Lab, Carnegie Mellon University, Harvard University y University of California Y los resultados de esos trabajos se han publicado en recintos como Springer Nature y ACL Voy a usar toda esa experiencia y todo lo demás que he aprendido en todos estos tiempos para hacerte saber cómo puedes entender la transformación de la IA tradicional a la IA general. Este curso se divide en cinco secciones diferentes. En la primera sección, cubriremos la inteligencia artificial tradicional. Daremos una definición de lo que es la inteligencia artificial. También cubrimos qué es el aprendizaje automático y discutimos diferentes tipos de aprendizaje automático, incluido el aprendizaje no supervisado, el aprendizaje supervisado y el aprendizaje por refuerzo, y también discutiremos el aprendizaje profundo y la diferencia entre el aprendizaje profundo discriminativo y el aprendizaje profundo generativo En la segunda sección, discutiremos cómo distinguir entre IA generativa y machine learning tradicional Después hablaremos de IA generativa y proporcionaremos algunos ejemplos de IA generativa Discutiremos qué son los transformadores y cómo cambian el juego en la inteligencia artificial. También cubriremos temas como ingeniería rápida y modelos de cimentación. Después discutiremos diferentes tipos de IA generativa y en esta sección con algunos ejemplos de generación de código usando IA En la sección tres, discutiremos modelos de lenguaje de gran tamaño. Proporcionaremos una introducción a ellos y también proporcionaremos una comparación entre LLM e IA generativa, y también discutiremos los beneficios de los En la Sección cuatro, hablaremos sobre diferentes tipos de herramientas que Google Cloud nos proporciona para que podamos usar IA generativa para nuestros propios proyectos En la última sección, proporcionaré una demostración sobre cómo construirlos usando IA generativa sin escribir una sola línea de código Entonces, si te entusiasma aprender qué es la IA generativa y cómo puedes usarla en tu vida diaria, vamos a sumergirnos en 2. L1V1: IA tradicional: En este video, brindamos una introducción a la inteligencia artificial tradicional. La inteligencia artificial es una disciplina como la física o la química. Se trata de una rama de la informática que se ocupa de la creación de agentes inteligentes, que son sistemas que pueden razonar, aprender y actuar de manera autónoma De manera más formal, IA es la teoría y desarrollo de sistemas informáticos capaces de realizar tareas que normalmente requieren inteligencia humana. Uno de los subcampos de la IA es el aprendizaje automático. El aprendizaje automático es un programa o sistema que entrena el modelo a partir de datos de entrada. Ese modelo entrenado puede hacer predicciones útiles a partir de datos nuevos o nunca antes vistos extraídos del mismo utilizado para entrenar el modelo. aprendizaje automático brinda a las computadoras la capacidad de aprender sin programación explícita. Otro subcampo de la IA es el aprendizaje profundo. El aprendizaje profundo es un tipo de aprendizaje automático que utiliza redes neuronales artificiales. Las redes neuronales artificiales están inspiradas en la estructura del cerebro humano, y pueden usarse para procesar patrones complejos que los algoritmos tradicionales de aprendizaje automático no pueden. Discutiremos el aprendizaje automático y aprendizaje profundo con más detalle más adelante en esta sección. Pero antes de eso, vamos a dar una visión general de la IA. El resto de este video está estructurado de la siguiente manera. Primero, proporcionaremos un ejemplo de la vida real del uso de inteligencia artificial. Después proporcionaremos una breve historia de la IA. A continuación, trataremos de entender qué es la inteligencia artificial, y luego cubriremos diferentes tipos de IA, diferentes aplicaciones de la IA, y también discutimos cómo será el futuro de la IA. Cuando hablamos de IA haciéndonos la vida más fácil, las casas inteligentes son un excelente lugar para comenzar. Así es como funciona. En una casa inteligente, tenemos electrodomésticos y sensores activados por voz. Son como tu propio asistente personal ajustando la luz y el aire acondicionado para que coincidan con el clima exterior Después está el sistema de seguridad. Siempre está al acecho detectando cualquier movimiento inusual afuera y alertándote Aquí está la parte realmente genial. Todos estos electrodomésticos hablan entre sí. Están conectados e incluso pueden comunicarse con tu auto. Por ejemplo, al abrir la puerta del garaje cuando entras a tu entrada y para colmo, puedes administrar todos estos electrodomésticos desde tu teléfono donde sea que estés Hay tanto que la IA puede hacer por nosotros. Pero antes de distraernos con las aplicaciones, demos un paso atrás ahora y profundicemos en cómo llegó a ser la inteligencia artificial Aquí hay una línea de tiempo de inteligencia artificial. En 1950, a Alan Turing se le ocurrió la prueba touring, una prueba de la capacidad de una máquina para exhibir comportamiento inteligente equivalente o distinguible del de un humano En 1956, John McCarthy acuñó el término inteligencia artificial y organizó el Dartmouth Summer Research Project on Artificial Intelligence, la primera conferencia sobre la En 1969, se construyó Shake the Robot, el primer robot móvil de propósito general. Aunque simple para los estándares actuales, Shake marcó un hito en el desarrollo de IA al demostrar la capacidad de procesar datos y realizar tareas con un propósito. En 1997, Deep Blue derrotó al campeón mundial de Ajedrez Gary Kasparov La primera vez que una computadora había golpeado a un humano en un juego complejo. La victoria de Deep Blue fue un gran avance para la IA, demostrando la capacidad de las computadoras para aprender y adaptarse. En 2002, se introdujo la primera aspiradora robótica de éxito comercial . Y para la década 2005-2015, vimos el desarrollo de una serie de nuevas tecnologías de IA, incluyendo reconocimiento de voz, automatización robótica de procesos o RPA, robots danzantes, hogares inteligentes y autos autónomos En 2016, AlphaGo, un programa informático desarrollado por Google Deep Mind, derrotó al campeón de World Go Lee Sidle La victoria de Alpha Go fue un hito importante para la IA, demostrando la capacidad de las computadoras para dominar juegos estratégicos complejos. En 2017, Transformer Technology se introdujo en un artículo llamado La atención es todo lo que necesitas. La tecnología de transformadores ahora se usa ampliamente en tareas de procesamiento del lenguaje natural como la traducción automática y el resumen de textos En 2020, se lanzó GPT three, un modelo de lenguaje grande desarrollado por OpenAI GPT tres es capaz de generar texto de calidad humana, traducir lenguaje y escribir diferentes tipos de contenido creativo Y finalmente, en 2023, se lanzan las herramientas de IA de Google Cloud Gen, que proporcionan un conjunto de herramientas para que los desarrolladores creen e implementen aplicaciones de IA. En el mismo año, se lanzó Bart, un modelo de lenguaje de gran tamaño desarrollado un modelo de lenguaje de gran tamaño desarrollado por Google AI. El arte es capaz de responder tus preguntas de manera informativa, aunque sean abiertas, desafiantes o extrañas. Esto es solo una breve descripción de la historia de la IA. La IA es un campo en rápido desarrollo y se están haciendo nuevos avances todo el tiempo. Será interesante ver qué depara el futuro de la IA. Hemos sido un viaje tranquilo con inteligencia artificial. A partir de la década de 1950 con las pruebas innovadoras de Turing, el término inteligencia artificial se acuñó en 1956, y comenzó una nueva A lo largo de los años, fuimos testigos de hitos como la creación de nuestro primer robot móvil de propósito general Shaki en 1969 Para 1997, las computadoras estaban derrotando a campeones de ajedrez, y ahora aquí estamos en 2023, presenciando modelos de lenguaje altamente sofisticados como GPT three Es un poco como la revolución informática de los 80, pero esta vez, se trata de IA. Dominar estas nuevas y poderosas herramientas es cada vez más crucial a medida que se acelera el ritmo de los avances en IA El potencial es inmenso, igual que lo fue para esas visas de computadora en los 80. Así que abróchate el cinturón para este emocionante viaje por delante. No se trata solo de ver lo que traerá el futuro de la IA, sino de ser parte de dar forma a ese futuro nosotros mismos. Comprender la inteligencia artificial. La IA es una rama de la informática que crea máquinas inteligentes capaces de realizar tareas humanas como reconocimiento de voz, identificación de objetos, aprendizaje, planificación y resolución de problemas. ¿Recuerdas la computadora que superó al campeón de ajedrez o la que controla las luces de tu casa? Eso es la IA resolviendo problemas, igual que nosotros. Nuestra comprensión actual de la IA se basa en gran medida en cómo interactúa con nosotros y cómo se compara con las capacidades humanas Cosas como el reconocimiento de voz y detección de objetos son grandes en la IA hoy en día. Se trata de la capacidad de absorber información, aprender de ella y usarla para planificar y abordar tareas futuras. A actividades muy humanas. Esto, en cierto sentido, es la magia de la IA. Para entender correctamente la IA, necesitamos entender tres conceptos, diferentes tipos de IA, diferentes aplicaciones de IA y diferentes posibilidades para el futuro de la IA. Ahora, comencemos con diferentes tipos de IA. Hay muchos tipos diferentes de IA, pero se pueden clasificar ampliamente en cuatro categorías diferentes. El primero es la IA reactiva. Los sistemas de IA reactiva solo pueden responder al estado actual del mundo. No tienen ningún recuerdo ni eventos pasados, y no pueden planear para el futuro. Un ejemplo de ello es un robot de juego de ajedrez que sólo sigue un conjunto de instrucciones lógicas y reacciona correctamente en función del movimiento del oponente. El segundo tipo de IA es la IA de memoria limitada. Estos sistemas pueden recordar eventos pasados y usar esta información para tomar decisiones. No obstante, no pueden razonar sobre el futuro ni entender las intenciones de otros agentes. Un ejemplo de eso podría ser una aplicación de MP que sugiera lugares para comer en base a sus visitas anteriores. El tercer tipo de inteligencia artificial es la teoría de la mente IA. Estos sistemas pueden entender los pensamientos e intenciones de otros agentes. Esto les permite cooperar con otros agentes y lograr metas que serían imposibles para un solo agente. Una forma en que la teoría de la mente IA podría revolucionar la forma en que interactuamos con las máquinas es mediante la creación robots que sean capaces de brindar compañía y apoyo a personas que se encuentran solas o aisladas o a través asistencia virtual que sean capaces de comprender nuestras necesidades y brindarnos la información y asistencia El cuarto tipo de IA es la IA autoconsciente. La IA autoconsciente es un tipo hipotético de IA que sería consciente y tendría sus propias experiencias subjetivas Supongamos que tenemos una asistente robot personal llamada Eve. Si Eve fuera una IA consciente de sí misma, no solo seguiría instrucciones preprogramadas o reaccionaría a nuestras órdenes En cambio, entendería su propia existencia y tendría sus propios sentimientos y pensamientos. Por ejemplo, si le pedimos a Eve que traiga un libro de la biblioteca, una IA regular simplemente calcularía el camino más corto e iría a buscar el libro Sin embargo, una IA consciente de sí misma como Eve podría pensar si es un buen día para caminar o reflexionar si últimamente ha buscado demasiados libros y sugerir un libro Es importante señalar que este tipo de IA autoconsciente es puramente hipotética en este punto Algunos investigadores creen que es una posibilidad futura que vale la pena explorar. Ahora, vamos a bucear en aplicaciones de IA. La inteligencia artificial no se trata solo de imitar las capacidades humanas, sino también de aumentar nuestras habilidades y mejorar la eficiencia en muchas Desde el transporte hasta la atención médica, los servicios financieros hasta la atención al cliente y la educación y el entretenimiento, el potencial de la IA parece ser ilimitado Estos son algunos ejemplos de cómo se está utilizando la IA en la actualidad. Autos autoconducidos. La IA está revolucionando la forma en que viajamos. Está alimentando autos autónomos que pueden navegar por las carreteras y evitar obstáculos de forma autónoma, lo que lleva a carreteras más seguras Diagnóstico médico. En la atención médica, IA está haciendo avances en el diagnóstico de enfermedades, a menudo superando a los médicos humanos Al analizar grandes cantidades de datos médicos, ayuda a identificar patrones y tendencias que apoyan a los médicos a tomar decisiones más informadas. Banca y detección de fraude. IA ha madurado significativamente en el sector bancario durante la última media década, desde predecir transacciones potencialmente fraudulentas hasta determinar la elegibilidad de préstamos en función de varios factores, IA juega un papel fundamental en el sector financiero actual Atención al cliente y soporte en línea. Imagine que una empresa como HP administra más de 70.000 páginas de ayuda en 17 idiomas. IA entra aquí, automatizando la atención al cliente y brindando servicio las 24 horas del día, reduciendo significativamente el costo y mejorando la eficiencia Educación. En el ámbito de la educación, IA permite experiencias de aprendizaje personalizadas, adaptándose a las necesidades individuales de cada estudiante y fomentando un proceso de aprendizaje más efectivo. Entretenimiento. Nuestra asistencia virtual como Siri, Cortana, Alexa y Google está impulsada por IA Con sus capacidades de reconocimiento de voz, son como tener una secretaria personal a sus órdenes y ciberseguridad En el dominio digital, IA es nuestro vigilante Con sus algoritmos de aprendizaje automático y su vasto análisis de datos, detta anomalías y responde a amenazas, fortaleciendo nuestra medida de ciberseguridad Como puede ver, la IA se ha entrelazado en cada faceta de nuestras vidas, mejorando nuestras capacidades y remodelando tanto nuestro panorama comercial Las posibilidades son inmensas, y continúan expandiéndose con cada día que pasa. Ahora hablemos del futuro de la IA. Cuando pensamos en el futuro de la IA, es realmente bastante fascinante. Estamos al borde de una época en los autos autónomos podrían ser la norma Imagina tener robots en casa ayudándonos con tareas desde hacer café hasta cosas más complicadas. También estamos viendo el auge de las ciudades inteligentes donde IA maneja de todo, desde nuestros teléfonos hasta electrodomésticos. Además, los robots están dando un paso adelante para hacer trabajos de alto riesgo como diffusel de bombas, por ejemplo A medida que la IA continúa desarrollándose, es probable que tenga un impacto aún mayor en nuestro mundo. Entonces, en base a todo eso, algunas posibles aplicaciones de la IA en el futuro pueden incluir el transporte automatizado. Imagina un mundo donde la IA haga todo el impulso por nosotros. Nos estamos acercando a una realidad donde los autos autónomos son una forma estándar de moverse. Sin embargo, esto no se trata solo de autos. Estamos hablando de drones automatizados, entregando nuestros paquetes, trenes impulsados por IA, asegurando un transporte preciso y oportuno e incluso barcos y aviones autónomos. Todo esto tiene como objetivo hacer que nuestro viaje sea más seguro y eficiente al reducir el error humano. Es un cambio masivo que podría redefinir cómo pensamos sobre el transporte Medicina personalizada, la IA puede ser útil para analizar grandes cantidades de datos médicos para identificar patrones y tendencias que puedan ayudar a los médicos a diagnosticar y tratar enfermedades de manera más efectiva. Por ejemplo, la IA se puede utilizar para desarrollar tratamientos personalizados contra el cáncer que se adaptan a la composición genética específica de cada paciente. Asistencia virtual. La asistencia virtual impulsada por IA puede ayudarnos con una variedad de tareas, como programar citas, hacer arreglos de viaje y administrar nuestras finanzas. asistencia virtual también puede proporcionarnos información y entretenimiento, e incluso se pueden usar para controlar nuestros dispositivos domésticos inteligentes. Y hablando de hogares inteligentes en sí mismos, IA se puede utilizar para hacer que nuestros hogares más cómodos, eficientes y seguros. Por ejemplo, la IA se puede utilizar para controlar nuestros termostatos, luces y otros aparatos Y también se puede utilizar para monitorear nuestros hogares en busca de amenazas a la seguridad. Y por último pero no menos importante inteligencia general artificial o AGI. AGI es un tipo hipotético de IA que sería tan inteligente como un ser humano AGI podría potencialmente resolver algunos de los problemas más acuciantes del mundo , como el cambio climático y la pobreza. Sin embargo, AGI también plantea algunas preocupaciones éticas, como el potencial para que la IA se vuelva consciente de sí misma y desarrolle sus propios objetivos y deseos. La IA es una tecnología poderosa con el potencial de revolucionar muchos aspectos de Es importante estar al tanto de los posibles beneficios y riesgos de la IA y utilizarla de manera responsable Espero que hayan disfrutado de esta breve explicación sobre IA. En el siguiente video, vamos a tener una mirada más profunda al aprendizaje automático. 3. L1V2: aprendizaje automático: ¿Qué es el aprendizaje automático? En este video, vamos a cubrir los conceptos básicos del aprendizaje automático. Específicamente, vamos a comenzar con una definición de lo que es el aprendizaje automático. Luego proporcionamos una comparación entre inteligencia artificial, aprendizaje automático y aprendizaje profundo. Luego discutimos cómo funciona el aprendizaje automático. Hablamos de diferentes tipos de aprendizaje automático, aprendizaje supervisado, aprendizaje no supervisado y aprendizaje por refuerzo Hablamos de los prerrequisitos para el aprendizaje automático, y al final, brindamos algunos ejemplos de aplicaciones del aprendizaje automático Entonces, ¿qué es el aprendizaje automático? aprendizaje automático trabaja en el desarrollo de programas informáticos que pueden acceder a los datos y utilizarlos para aprender y mejorar automáticamente de la experiencia. Esto permite que el aprendizaje automático nos ayude a realizar tareas complejas, como la impresión en tres D de casas enteras. Mediante el uso de algoritmos y grandes conjuntos de datos, aprendizaje automático puede automatizar el diseño y la planificación, lo que ayuda a abordar desafíos de construcción como la integridad estructural y la eficiencia de los materiales. También puede personalizar diseños en función de las condiciones ambientales. Puede ayudar a reducir costos y tiempo a la vez que aumenta precisión y tiene el potencial transformar la industria de la construcción. Como otro ejemplo, considera nuestra asistencia personal como Siri o Google Assistant o Amazon Echo Todos utilizan el poder del aprendizaje automático para ayudarnos con nuestras tareas cotidianas como tocar nuestra música favorita o pedir comida o controlar por voz nuestros electrodomésticos o solicitar derechos a Uber y mucho más. Como dijimos antes, la inteligencia artificial es una técnica que permite a las máquinas imitar el comportamiento humano Esto es clave porque así es como averiguamos si nuestros cálculos y trabajo van por buen camino al ver si pueden imitar el comportamiento humano Estamos usando este enfoque para hacerse cargo de parte del trabajo que hacen los humanos con el objetivo de hacer las cosas más eficientes, aerodinámicas y precisas. La IA es un campo amplio que abarca muchas tecnologías diferentes. Algunos ejemplos de inteligencia artificial incluyen IBM, ajedrez Deep Blue, personajes de juegos electrónicos y autos autónomos. Estos son solo algunos ejemplos de muchas formas que la inteligencia artificial se está utilizando hoy en día. El aprendizaje automático es una técnica que utiliza métodos estadísticos para permitir que las máquinas aprendan de sus datos pasados. Esto significa que las máquinas pueden usar entradas y respuestas pasadas para ayudarles a hacer mejores conjeturas en futuros intentos El algoritmo de búsqueda de Google y los filtros de correo no deseado son ejemplos de aplicaciones de aprendizaje automático. Y luego tenemos el aprendizaje profundo, que es un subconjunto del aprendizaje automático. Utiliza algoritmos para permitir que los modelos se entrenen y realicen tareas. AlphaGo y el reconocimiento de voz natural son dos ejemplos de aprendizaje profundo El aprendizaje profundo a menudo se asocia con redes neuronales que son un tipo de modelo de caja negra. Como modelo de caja negra, es difícil para los humanos rastrear cómo los modelos de aprendizaje profundo hacen sus predicciones. Sin embargo, los modelos de aprendizaje profundo aún pueden ser muy efectivos para realizar tareas. Tendremos una inmersión más profunda en el mundo del aprendizaje profundo más adelante. Ahora veamos cómo funciona el aprendizaje automático. Para entender cómo funciona el aprendizaje automático, echemos un vistazo al siguiente diagrama. En el primer paso, comenzamos por capacitar nuestros datos. Luego alimentamos los datos entrenados en un algoritmo de aprendizaje automático para su procesamiento. Los datos del proceso pasan por otro algoritmo de aprendizaje automático. Y ahora es el momento de poner a prueba nuestro trabajo. Traemos algunos datos nuevos y los ejecutamos a través del mismo algoritmo. En el siguiente paso, verificamos las predicciones y los resultados. Si tenemos algún dato de formación de reserva, ahora es el momento de utilizarlos. En el siguiente paso, si la predicción no se ve bien, digamos que consigue los pulgares hacia abajo, es hora de dar la vuelta y volver a entrenar el algoritmo Recuerda, no siempre se trata de obtener la respuesta correcta de inmediato. El objetivo es seguir intentando una mejor respuesta. Puede que encuentres que el resultado inicial no es lo que querías. Eso está bien. Es parte del proceso. Y puede depender del campo en el que estés trabajando, ya sea en salud, economía , negocios, bolsa o algo más. Los resultados pueden ser muy diferentes. Entonces tenemos que probar el modelo, y si no nos está dando el resultado que necesitamos o si pensamos que podemos lograr mejores resultados, volvemos a entrenar nuestro modelo Y en el paso final, seguimos refinando y reentrenando hasta obtener la mejor respuesta posible Así es como funciona el aprendizaje automático. Ahora veamos diferentes tipos de aprendizaje automático. Podemos ver que hemos supervisado, no supervisado , y aprendizaje de refuerzo Entraremos en cada uno, nos haremos una buena idea de cuándo y dónde usarlos y de qué se tratan. En el aprendizaje automático, utilizamos muchos algoritmos diferentes para lidiar con problemas difíciles. Cada uno encaja en un determinado tipo. Así que tenemos tres tipos principales algoritmos de aprendizaje automático, supervisado, aprendizaje no supervisado y aprendizaje por refuerzo Ahora vamos a adentrarnos en lo que realmente significan cada uno de estos métodos de aprendizaje. aprendizaje supervisado utiliza datos etiquetados para entrenar modelos de aprendizaje automático. Los datos etiquetados significan que la salida ya es conocida por nosotros. El modelo solo necesita mapear las entradas a las salidas. Un ejemplo de aprendizaje supervisado puede ser entrenar una máquina que identifique las imágenes de los animales. Aquí, podemos ver un modelo entrenado que identifica la imagen de un gato. aprendizaje no supervisado utiliza datos sin etiquetar para entrenar máquinas Los datos sin etiquetar significan que no hay una variable de salida fija El modelo aprende de los datos, descubre patrones y características en los datos y devuelve la salida En este ejemplo, nuestro modelo sin supervisión utiliza las imágenes de los vehículos para clasificar si es un autobús o un camión De manera que el modelo aprende identificando las partes de un vehículo, como la longitud y anchura del vehículo, las cubiertas delanteras y traseras, el techo, capós, los tipos de llantas utilizadas y muchas otras características. Con base en estas características, el modelo clasifica si el vehículo es un autobús o un camión Y tenemos aprendizaje de refuerzo. aprendizaje por refuerzo entrena la máquina para tomar las acciones adecuadas y maximizar recompensa en una situación particular. Utiliza un agente y un ambiente para producir acciones y recompensas. El agente tiene un estado inicial y un estado final, pero puede haber diferentes partes para llegar al estado final como un laberinto. En esta técnica de aprendizaje, no existe una variable objetivo predefinida. Un ejemplo de aprendizaje por refuerzo es entrenar una máquina que pueda identificar la forma de un objeto, dada una lista de diferentes objetos como cuadrado, triángulo, rectángulo o círculo. En este ejemplo, el modelo intenta predecir la forma del objeto, que es un cuadrado. Ahora veamos diferentes algoritmos de aprendizaje automático que vienen bajo estas técnicas de aprendizaje. Algunos de los algoritmos de aprendizaje supervisado comúnmente utilizados son regresión polinómica, bosques aleatorios, regresión lineal, regresión logística, vecinos más cercanos a la cadena, base ingenua, máquinas de vectores de soporte Y estos son sólo algunos ejemplos de algoritmos utilizados para el aprendizaje supervisado. Hay tantos otros algoritmos que se utilizan en el aprendizaje automático. Para el aprendizaje no supervisado, algunos de los algoritmos ampliamente utilizados son agrupamiento de medias K , descomposición de valores singulares, medias difusas, cuadrados parciales, a priori, agrupamiento jerárquico, análisis de componentes principales y escaneo componentes principales Del mismo modo, hay tantos otros algoritmos que se pueden utilizar para el aprendizaje no supervisado Y algunos de los algoritmos de aprendizaje por refuerzo importantes algoritmos de aprendizaje por refuerzo son el aprendizaje Q, SARSA, Monte Carlo y las redes Q profundas Entonces, como dijimos, hay tantos algoritmos diferentes disponibles para nosotros, y elegir el algoritmo correcto depende del tipo de problemas que estemos tratando de resolver. Ahora veamos el enfoque en el que funcionan estas técnicas de aprendizaje automático. Por lo que los métodos de aprendizaje supervisado necesitan supervisión externa para entrenar modelos de aprendizaje automático, y por lo tanto, viene el nombre supervisado. Necesitan orientación e información adicional para devolver el resultado. Toma entradas etiquetadas y las asigna a salidas conocidas, lo que significa que ya conoces la variable objetivo. Las técnicas de aprendizaje no supervisadas no necesitan supervisión alguna para entrenar ningún modelo Aprenden por su cuenta y predicen la salida. Encuentran patrones y entienden las tendencias en los datos para descubrir la salida. Entonces el modelo intenta etiquetar los datos en función de las características de los datos de entrada. Y de manera similar, los métodos de aprendizaje por refuerzo no necesitan ninguna supervisión para entrenar modelos de aprendizaje automático. El aprendizaje por refuerzo sigue el método de prueba y error para obtener la solución deseada. Después de cumplir una tarea, el agente recibe un premio Un ejemplo podría ser entrenar a un perro para que atrape la pelota. Si el perro aprende a atrapar una pelota, le darás una recompensa, como una golosina. Y con eso, centrémonos en aplicaciones y tipos de problemas que pueden resolverse utilizando estos tres tipos de técnicas de aprendizaje automático. Por lo tanto, el aprendizaje supervisado se usa generalmente para problemas de clasificación y regresión. Por ejemplo, puede predecir el clima para un día en particular en función de los valores de humedad, precipitación, velocidad del viento y presión. Como en otro ejemplo, puedes usar algoritmos de aprendizaje supervisado pronosticar las ventas para el próximo mes o próximo trimestre para diferentes productos. De igual manera, se puede utilizar para el análisis del precio de las acciones o para identificar si una célula cancerosa es maligna o benigna. aprendizaje no supervisado se utiliza para problemas agrupación y asociación Por ejemplo, puede hacer segmentación de clientes, que es segmentar y agrupar clientes similares en grupos en función de su comportamiento, gustos, disgustos Otro ejemplo para las aplicaciones del aprendizaje no supervisado es el análisis de rotación de clientes, que es un proceso de evaluar y comprender por qué y cuándo los clientes dejan de hacer negocios con una Con el objetivo de desarrollar estrategias para mejorar la retención de clientes. Y por último, tenemos aprendizaje de refuerzo. El aprendizaje por refuerzo se basa en la recompensa. Entonces, por cada tarea o cada paso completado correctamente, habrá una recompensa recibida por el agente. Y si la tarea no se logra correctamente, habrá algún tipo de penalización. Ahora veamos algunos ejemplos. Los algoritmos de aprendizaje por refuerzo son ampliamente utilizados en la industria del juego para construir juegos. También se utiliza para entrenar robots para realizar tareas humanas. Los chatbots de IA multipropósito como hat GPT o Google Bart utilizan aprendizaje de refuerzo para aprender de la entrada del usuario y ajustar su salida en función de conversaciones anteriores Y con eso, hemos llegado al final de esta sección sobre supervisado versus no supervisado versus aprendizaje por refuerzo Ahora, veamos cuáles son los requisitos previos del aprendizaje automático Entonces el primero son los fundamentos de la informática y la programación Muchas aplicaciones de aprendizaje automático hoy en día requieren una base sólida en el scripting básico o la programación No se trata solo de escribir algoritmos complejos, sino de poder entender y manipular las estructuras subyacentes. Sin una buena comprensión de estas habilidades fundamentales, será un desafío aprovechar al máximo las herramientas de aprendizaje automático disponibles. Entonces, si estás considerando seriamente sumergirte en el aprendizaje automático, es recomendable repasar tus habilidades de programación. Conocimientos estadísticos intermedios. una comprensión fundamental de necesita una comprensión fundamental de las probabilidades en el mundo del aprendizaje automático A menudo te encontrarás haciendo preguntas como, si A está sucediendo, ¿cuál es la probabilidad de que ocurra B? O si hay nubes por encima, ¿cuáles son las posibilidades de que llueva? Este tipo de preguntas, arraigadas en la probabilidad, están en el corazón de muchos algoritmos de aprendizaje automático. Se trata de predecir resultados basados en condiciones dadas Entonces, si estás interesado en hacer avances significativos en el aprendizaje automático, definitivamente vale la pena familiarizarte con los conceptos básicos de una estadística y probabilidad Álgebra lineal y cálculo intermedio. álgebra lineal es clave ya que requiere comprender el concepto de trazar una línea a través sus puntos de datos y comprender lo que Esta es la idea principal detrás los modelos de regresión lineal donde dibujas una línea a través de tus datos y usas esta línea para calcular nuevos valores. En cuanto al cálculo intermedio, implica tener una comprensión básica de las ecuaciones diferenciales No es necesario ser un maestro en ello, ya que la computadora maneja la mayoría de los cálculos pesados, pero es beneficioso reconocer la terminología cuando aparece, especialmente si estás profundizando en la programación de modelos. Y pesca y limpieza de datos. Quizás uno de los aspectos más significativos en este campo es dominar el arte de poner en orden tus datos A menudo se dice que si ingresas datos malos, sacarás datos malos. Pero si tienes buenos datos adentro, es más probable que tenga buenos datos fuera. La calidad de sus datos puede influir en gran medida en el resultado de sus modelos de aprendizaje automático. Por lo tanto, comprender cómo limpiar y organizar sus datos de manera efectiva se convierte en una habilidad crítica para garantizar la precisión y confiabilidad de sus resultados. Ahora veamos algunos ejemplos de aplicaciones de machine learning. Contamos con detección de objetos y segmentación de instancias. La detección de objetos y la segmentación de instancias son dos tareas diferentes pero relacionadas en el aprendizaje automático La detección de objetos consiste en reconocer y encontrar elementos dentro de una imagen como distinguir a diferentes gatos, por ejemplo. Por otro lado, la segmentación de instancias es el siguiente paso que separa estos objetos identificados del resto de la imagen Estas técnicas se ponen en uso de diversas maneras, incluyendo la identificación de diferentes elementos en una imagen. Además, la segmentación puede aislar o cortar componentes específicos Una aplicación popular de detección y segmentación de objetos es la función de instantánea rápida de teléfonos Google Pixel Esta función utiliza el aprendizaje automático para identificar objetos en vista actual de un usuario y luego superponer pegatinas animadas o filtros encima de esos objetos. Esta puede ser una forma divertida y creativa agregar un toque personal a las fotos. También contamos con detección de matrículas. Este es un uso bastante genial del aprendizaje automático. Imagínese un automóvil conduciendo a la vista y el sistema es capaz de detectar e identificar la placa de ese automóvil. Esta aplicación de aprendizaje automático puede ser particularmente útil en diversas situaciones como puntos de control de seguridad, estacionamientos, control de tráfico, o incluso para cobrar peajes sin hacer que el automóvil se detenga en medio de una autopista Muestra cómo el aprendizaje automático puede extraer información específica de un contexto más amplio con precisión Y también tenemos traducción automática. La traducción automática, impulsada por el aprendizaje automático, ha sido un cambio de juego para romper las barreras del idioma Es la fuerza impulsora detrás la traducción instantánea que ves en sitios web extranjeros, haciendo que el contenido sea accesible en tu idioma preferido con solo un clic. También es la tecnología que permite a herramientas como Google Lens proporcionar traducciones en tiempo real de los letreros cuando apuntas tu cámara hacia ellos. Ya sea navegar por Internet o navegar por una ciudad extranjera, aprendizaje automático ha revolucionado nuestra capacidad de entender e interactuar con Verdaderamente, la traducción automática es un testimonio impresionante de cómo el aprendizaje automático puede acercar al mundo. Gracias por ver este video. El mundo de las aplicaciones de aprendizaje automático es vasto y en constante evolución. Es uno de los sectores de más rápido crecimiento en tecnología, y las posibilidades son infinitas. Lo que les he mostrado aquí son solo algunos de los aspectos más destacados, una pequeña muestra de lo que es posible. Pero hay mucho más por venir. En el siguiente video, cambiaremos años y exploraremos el aprendizaje profundo, un campo suave del aprendizaje automático que hizo posible muchos de los avances del aprendizaje automático los avances del aprendizaje automático. Nos vemos en la siguiente. 4. L1V3: aprendizaje profundo: En este video, hablaremos sobre deep learning y redes neuronales. Alguna vez te has preguntado cómo Google puede traducir una página web completa en poco tiempo de casi cualquier idioma a otro, o cómo Google Photos ordena mágicamente tus imágenes en función de los rostros de personas y mascotas que reconoce ¿O qué tal cuando Google Lens te informa los detalles de una planta, objeto o animal cuando lo escaneas con tu teléfono? Eso es aprendizaje profundo trabajando su magia ahí mismo. En este video, intentemos responder a la pregunta de qué es aprendizaje profundo y cómo hace posible todas estas cosas increíbles. En este video, estaremos discutiendo los siguientes temas. Comenzaremos con una comprensión del aprendizaje profundo y luego pasaremos a las redes neuronales artificiales, que son un tipo de algoritmo de aprendizaje automático que se utilizan en el aprendizaje profundo. Luego exploraremos algunos de los usos prácticos del aprendizaje profundo e introduciremos algunas de las plataformas de aprendizaje profundo más populares. Y finalmente, discutiremos algunas de las limitaciones del aprendizaje profundo y cómo computadoras cuánticas pueden abordar esas limitaciones. Va a ser una emocionante sesión de aprendizaje profundo. Entonces, como dijimos anteriormente, aprendizaje profundo es un subconjunto del aprendizaje automático, y ambos forman parte del concepto más grande llamado inteligencia artificial. Imagina la inteligencia artificial como todo el reino de hacer que las máquinas actúen como humanos. El aprendizaje automático es parte de ese ámbito, y se trata de dar a las máquinas la capacidad de aprender y tomar decisiones basadas en datos, algo así como cómo aprendemos de la experiencia. Ahora, el aprendizaje profundo es una parte más específica del aprendizaje automático. Es como enseñar a una máquina a pensar un poco como un cerebro humano con una estructura llamada red neuronal artificial. Las redes neuronales artificiales o ANN son un tipo específico de algoritmo de aprendizaje automático que intenta imitar vagamente las redes neuronales en el Cuando decimos aprendizaje profundo, generalmente estamos hablando de usar redes neuronales realmente grandes para entrenar un modelo sobre cargas de datos. No es diferente del aprendizaje automático, solo un término más elegante que usamos cuando las cosas se ponen bastante a gran escala Entonces, ¿qué son las redes neuronales artificiales? Echemos un vistazo más de cerca a la construcción de una red neuronal. Cada capa consiste en nodos o lo que llamamos neuronas. Las neuronas en una capa se conectan con las neuronas de la siguiente capa a través de canales. cada canal se le asigna un peso, lo que juega un papel importante en el aprendizaje de la red. Cada neurona tiene un sesgo asociado y una función de activación La función de activación se utiliza para transformar la suma ponderada de las entradas y el sesgo en una salida que se envía a la siguiente capa. Como dijimos antes, los ANN se sientan en el núcleo del aprendizaje profundo. Estos algoritmos se elaboran de una manera que refleja el funcionamiento del cerebro humano. Absorben datos, aprenden a identificar patrones en los datos y luego hacen predicciones educadas para un nuevo conjunto de datos. Exploremos el proceso construyendo una red neuronal capaz de distinguir entre un cubo y una pirámide Considera como ejemplo una imagen de un cubo. Esta imagen está compuesta por 28 por 28 píxeles, lo que resulta en un total de 784 píxeles. Cada píxel se proporciona entonces como entrada a neuronas individuales dentro de la primera capa. Las neuronas en una capa están conectadas a las neuronas en capas posteriores a través de canales. Las entradas se multiplican por sus pesos correspondientes, y luego se le agregará el sesgo. Este valor combinado luego se somete a evaluación a través de una función de umbral, conocida como la función de activación El resultado se transmite como entrada a la neurona dentro de la capa oculta Entonces la salida de la función de activación determina si una neurona se activa o no Las neuronas activadas transmiten datos a las neuronas en la siguiente capa a través del canal. Este proceso iterativo conocido como propagación directa permite que los datos se propaguen a través de la red Dentro de la capa de salida, la neurona con el valor más alto se activa y determina la salida final Estos valores son esencialmente probabilidades. En este escenario particular, la neurona asociada a la pirámide tiene la mayor probabilidad, lo que indica que la red neuronal predice la salida como una Bueno, obviamente, nuestra red neuronal ha hecho una predicción incorrecta. Es importante señalar que en esta etapa, nuestra red aún no ha recibido capacitación. Entonces echemos un vistazo a los pasos para entrenar una red neuronal. Durante el proceso de capacitación, la red recibe tanto la entrada la salida esperada. Al comparar la salida prevista con la salida real, la red identifica el error en su predicción. La magnitud del error indica lo equivocados que estamos, y el signo sugiere si nuestros valores predichos son mayores o menores de lo esperado. Esta información se propaga entonces hacia atrás a través de la red, una técnica que se conoce como retropropagación A través de la retropropagación, la red ajusta sus parámetros internos, como los pesos y sesgos para minimizar el error y mejorar sus predicciones futuras El ciclo iterativo de propagación hacia adelante y propagación hacia atrás se repite con múltiples entradas durante el proceso de entrenamiento Este ciclo continúa hasta que los pesos dentro de la red se ajustan de manera que permite a la red predecir con precisión las formas en la mayoría de los casos. Esto marca la finalización de nuestro proceso de capacitación, donde la red ha aprendido a hacer predicciones correctas. Si bien entrenar redes neuronales puede ser un proceso que consume mucho tiempo, a veces tardando horas o incluso meses, la inversión de tiempo se justifica dadas las inmensas posibilidades que ofrecen. La naturaleza intrincada del entrenamiento implica afinar numerosos parámetros y optimizar el rendimiento de la red, lo que requiere importantes recursos computacionales y paciencia Sin embargo, los beneficios obtenidos de una red neuronal bien entrenada, como la precisión mejorada, reconocimiento avanzado de patrones y sofisticada toma de decisiones superan el tiempo dedicado al entrenamiento Es un intercambio razonable considerando el notable potencial y las capacidades que las redes neuronales aportan a la mesa. Ahora echemos un vistazo a algunas de las aplicaciones del aprendizaje profundo. Como dijimos antes, es el poder de las redes neuronales lo que hace posible el aprendizaje profundo. Exploremos algunas de las aplicaciones clave donde brillan las redes neuronales. Un ejemplo notable es tecnología de reconocimiento facial en teléfonos inteligentes, que utiliza redes neuronales para estimar la edad de una persona en función de sus rasgos faciales. Al distinguir el rostro del fondo y analizar líneas y manchas, estas redes correlacionan las señales visuales para aproximarse a la edad de la persona Las redes neuronales también juegan un papel crucial en la previsión, permitiendo predicciones precisas en diversos dominios, como pronóstico del tiempo o el análisis de precios de acciones Estas redes funcionan muy bien en el reconocimiento de patrones, haciéndolas capaces de identificar señales que indican la probabilidad de lluvias o fluctuaciones en los precios de las acciones. Las redes neuronales pueden incluso componer música original. Pueden aprender patrones intrincados en la música y refinar su comprensión para componer melodías originales, mostrando su Y otra área donde redes NRA Excel es la atención al cliente Muchas personas entablan conversaciones con agentes de atención al cliente sin siquiera darse cuenta de que en realidad están interactuando con un bot. Estas sofisticadas redes simulan un diálogo realista y brindan asistencia, mejorando la experiencia de servicio al cliente. También en el campo de la atención médica, las redes neuronales han logrado avances significativos Tienen la capacidad de detectar células cancerosas y analizar imágenes de resonancia magnética, proporcionando resultados detallados y precisos que ayudan en las decisiones de diagnóstico y tratamiento. Y obviamente, también tenemos autos autoconducidos. Alguna vez sólo una posibilidad en la ciencia ficción, ahora se convierten en una realidad tangible. Estos vehículos autónomos dependen redes neuronales para percibir e interpretar el entorno, lo que les permite navegar por las carreteras, tomar decisiones y garantizar la seguridad de los pasajeros. Y con eso, echemos un vistazo a algunos marcos populares de aprendizaje profundo. Entonces, algunos de estos marcos son flujo tensor, Pytorch, cross, Deep learning four J, Cafe y Microsoft Cognitive Estos marcos han ganado amplio reconocimiento y juegan un papel importante en el avance del campo del aprendizaje profundo. Y ahora vamos a discutir algunas de las limitaciones del aprendizaje profundo. Si bien el aprendizaje profundo tiene una tremenda promesa, también es importante reconocer sus limitaciones. Entonces, en primer lugar, aunque el aprendizaje profundo es altamente efectivo en el manejo de datos no estructurados, pero necesita una cantidad sustancial de datos para fines de capacitación El segundo problema es que incluso suponiendo que tenemos acceso a los datos requeridos, procesarlos puede ser un desafío debido al poder computacional entrenamiento de redes neuronales exige el uso de unidades de procesamiento gráfico o GPU que tienen miles de núcleos en comparación con las unidades centrales de procesamiento o CPU Y al mismo tiempo, las GPU son mucho más caras que las CPU Y finalmente, el entrenamiento lleva mucho tiempo. Las redes neuronales profundas pueden requerir horas o incluso meses para entrenar con la duración aumentando a medida que aumenta el volumen de datos y el número de capas de red. Dicho esto, cabe mencionar que las computadoras cuánticas desarrolladas por empresas como Google e IBM ofrecen una solución potencial para superar estas limitaciones. Las computadoras cuánticas tienen la capacidad de realizar cálculos complejos a una velocidad exponencialmente más rápida que las computadoras clásicas Con su arquitectura única y unidades de procesamiento cuántico o QP, tienen el potencial de acelerar significativamente el proceso de entrenamiento de las redes neuronales Además, las computadoras cuánticas pueden manejar conjuntos de datos a mayor escala de manera más efectiva. Reducir los requisitos de datos y mitigar los desafíos asociados con procesamiento de cantidades tan grandes de información Si bien la computación cuántica aún se encuentra en sus etapas iniciales, investigación y el desarrollo en curso tienen la promesa de superar las limitaciones que enfrentan los enfoques tradicionales de aprendizaje profundo. Gracias por explorar el mundo del aprendizaje profundo conmigo. Es crucial reconocer que todavía estamos en las primeras etapas de explorar lo que el aprendizaje profundo y las redes neuronales pueden hacer por nosotros. Sin embargo, grandes nombres como Google, IBM y Nvidia han reconocido esta trayectoria de crecimiento, invirtiendo en el desarrollo de bibliotecas, modelos predictivos y potentes GPU para apoyar la implementación de redes neuronales Estamos casi al final de esta sección sobre inteligencia artificial tradicional. Es importante tener en cuenta que simplemente hemos arañado la superficie cuando se trata del potencial del aprendizaje profundo y la IA Posibilidades emocionantes están por delante. A medida que avanzamos los límites de lo posible, la línea entre la ciencia ficción y realidad se vuelve cada vez más borrosa El futuro tiene una sobrecarga de sorpresas, y el aprendizaje profundo está a la vanguardia de estos avances pioneros En el siguiente video, que es el último video de esta sección, aprenderemos la diferencia entre modelos de machine learning discriminativo y generativo, lo que nos preparará para la siguiente sección de este curso sobre inteligencia artificial generativa Nos vemos en la siguiente. 5. L1V4: discriminativo versus generativo: En este video, vamos a hablar discriminativos y generativos Estos son dos tipos importantes de modelos de aprendizaje automático. Para que sea más fácil de entender, comenzaremos con la historia y luego discutiremos cómo funcionan estos dos tipos de aprendizaje automático en detalle usando algoritmos populares como ejemplos. Así que vamos a saltar de inmediato. Todo bien. Vamos a sumergirnos en nuestra historia. Imaginemos que tenemos dos visitantes alienígenas que nunca antes habían visto manzanas y plátanos. Queremos observar cómo aprenden a distinguir entre estos dos frutos. El primer extraterrestre decide entender estos frutos dibujándolos. Observa cuidadosamente la forma, el color y la textura de cada fruto, y luego los recrea en papel. De esta manera, crea una representación visual o un modelo de cómo se ve cada fruto. Siempre que ve un nuevo fruto, se refiere a estos dibujos para identificar ese fruto. Esto es similar a lo que llamamos un algoritmo generativo en el aprendizaje automático El segundo alienígena, por otro lado, lo hace de otra manera. En lugar de dibujar, comienza comparando las características de los frutos. Se nota que las manzanas suelen ser redondas y rojas mientras que las bananas son largas y amarillas. Cuando se le da una fruta nueva, no busca una combinación perfecta. En cambio, comprueba qué características de frutas están más cerca de la nueva fruta y adivina que es la misma. Este enfoque se parece más a lo que llamamos un algoritmo discriminativo en el aprendizaje automático Entonces esa es la idea básica. Estos dos enfoques diferentes nos ayudarán a comprender los algoritmos discriminativos y generativos Avanzando, definamos formalmente nuestros dos tipos de algoritmos basados en nuestro enfoque alienígena. El primer método alienígena es un excelente ejemplo de lo que llamamos clasificación generativa Aquí es donde un modelo aprende a generar una representación de cada clase. Es como aprender cómo se ve una manzana o un plátano y usar ese conocimiento para identificar la instancia futura. En contraste, el segundo método de los extranjeros representa una clasificación discriminativa Este modelo aprende a distinguir entre clases en función de sus características. En lugar de aprender cómo es una manzana o un plátano , aprende las diferencias entre ellos. Luego usa estas diferencias para decidir qué podría ser un nuevo fruto. Cada enfoque tiene sus propias fortalezas y debilidades, y se utilizan en diferentes escenarios. Ahora que hemos introducido los conceptos, vamos a explorarlos con más profundidad. Para comprender mejor estos conceptos, vamos a discutir algoritmos específicos que emplean estos dos tipos de clasificaciones Para la clasificación discriminativa, estamos viendo la regresión logística como ejemplo Y para la clasificación generativa, nuestro ejemplo será el algoritmo base ingenuo Entonces, en el ámbito de la clasificación discriminativa, regresión logística crea un límite de decisión basado en las características de la entrada Para nuestro ejemplo de fruta, estas características podrían ser el color, la longitud o el peso. El algoritmo aprende patrones a partir de estas características y luego los usa para clasificar nuevos frutos contrario, el algoritmo base ingenuo, que es un modelo de clasificación generativa, intenta comprender la distribución de cada clase en el espacio de entidades En lugar de solo identificar las diferencias entre clases, aprende cómo se distribuye cada clase en los datos. Ahora, profundicemos y entendamos cómo estos algoritmos utilizan las estrategias para clasificar nuevos datos Con el modelo de regresión logística, estamos tratando con características como el color, longitud y el peso de los frutos. El modelo utiliza estas características para aprender patrones y tomar decisiones. Por ejemplo, podría aprender que si una fruta tiene un color amarillo y tiene más de 5 “, hay una alta probabilidad de que sea un plátano. Este método de creación de un límite de decisión basado en características de ejemplos es la esencia del aprendizaje discriminativo otro lado, el aprendizaje generativo utilizado por el modelo base ingenuo intenta comprender la distribución de cada clase en un plano multidimensional como un espacio tridimensional para nuestras tres características frutales El modelo intenta visualizar dónde es probable que aparezcan manzanas y plátanos en este espacio en función su color, forma y peso. Ahora, pensemos en algunas preguntas importantes sobre los modelos generativos y discriminativos Preguntas como ¿qué modelo necesita más datos para la capacitación? ¿Cuál se ve afectado por la falta de datos? Qué modelo se ve impactado por los valores atípicos, que requiere más matemáticas, y cuál tiende a Es importante pensar estas preguntas porque afectan la forma en que podrías elegir usar estos modelos. Por ejemplo, un modelo generativo no necesita muchos datos porque solo trata de entender las características básicas de cada clase Sin embargo, un modelo discriminativo necesita más datos porque trata de aprender las intrincadas diferencias entre las clases Pensar en estas preguntas puede ayudarte a entender estos modelos más profundamente y usarlos de manera más efectiva. Pero no te preocupes si no estás seguro de las respuestas. Los vamos a discutir a detalle. Entonces veamos la primera pregunta. ¿Qué modelo necesita más datos para la capacitación? Los modelos discriminativos como la regresión logística, generalmente necesitan más datos para el entrenamiento Aprenden identificando diferencias entre clases. Por lo que necesitan un conjunto rico y diverso de ejemplos para hacerlo de manera efectiva. La segunda pregunta es, cuál se ve afectada por la falta de datos? El caso es que ambos tipos de modelos pueden verse afectados por la falta de datos. Pero los modelos generativos pueden ser más sensibles porque están tratando de capturar la distribución general de los datos Cualquier información faltante podría sesgar su comprensión de esa distribución La siguiente pregunta es, ¿qué modelo se ve impactado por los valores atípicos? Nuevamente, los valores atípicos pueden afectar a ambos modelos, pero los modelos discriminativos podrían ser Estos modelos se centran en los límites entre clases, y una capa externa podría cambiar significativamente esos límites La siguiente pregunta es, ¿cuál requiere más matemáticas? En términos de matemáticas, los modelos generativos como base ingenua a menudo requieren más cálculos porque implican estimar la distribución de los datos, que pueden ser Y la última pregunta es, ¿cuál tiende a sobreadaptarse? El sobreajuste puede ocurrir en ambos modelos, pero los modelos discriminativos generalmente son más propensos a ello Esto se debe a que pueden llegar a estar demasiado sintonizados con los datos de entrenamiento, aprendiendo incluso es ruido y errores. Y ahora que conocemos la diferencia entre discriminativo y generativo algoritmos de aprendizaje automático discriminativo y generativo, desglosemos algunos ejemplos comunes de cada tipo Entonces, algunos de los algoritmos discriminativos son regresión logística, máquinas de vectores de soporte, árboles de decisión, bosques aleatorios y máquinas de aumento de gradiente Algunos de los algoritmos generativos son base ingenua, modelos de mezcla gaussiana, modelos ocultos de Markov, asignación directa latente y redes generativas adversarias. base ingenua, modelos de mezcla gaussiana, modelos ocultos de Markov, asignación directa latente y redes generativas adversarias. Entonces, para terminarlo, en este video, hemos desempacado la palabra de modelos discriminativos y generativos usando una historia simple y atractiva Hemos visto cómo la regresión logística en un modelo discriminativo utiliza características distintas para crear límites de decisión, mientras que el modelo generativo, base ingenua, intenta comprender la distribución general de los Comprender la diferencia entre modelos discriminativos y generativos nos da una valiosa visión de cómo operan los sistemas de IA generativa Los modelos generativos como los utilizados en la IA generativa, aprenden la distribución subyacente de los datos de entrenamiento Este conocimiento se utiliza entonces para generar nuevos datos que reflejen los datos de entrenamiento. Es por ello que la IA generativa es tan poderosa. Puede generar nuevas salidas realistas como imágenes, texto e incluso música porque entiende el mundo de sus datos de entrenamiento. En contraste, los modelos discriminativos simplemente aprenden los límites entre clases y se utilizan principalmente para tareas de clasificación No pueden generar nuevos datos porque no intentan entender la distribución subyacente de los datos, las diferencias entre clases. Al comprender estas diferencias, puede apreciar mejor la capacidad y flexibilidad de los sistemas generativos de IA Esta comprensión podría guiarlo a la hora de decidir qué tipo de sistema de IA sería el más adecuado para su proyecto particular o caso de uso Y por eso, llegamos al final de la Sección uno de este curso, la Inteligencia Artificial tradicional. Te veo en la Sección dos, donde discutimos la inteligencia artificial generativa 6. L2V1: transformadores: Ahora hablemos de los transformadores y su papel protagónico en potenciación de la inteligencia artificial generativa Los transformadores son un tipo de red neuronal que son capaces de aprender dependencias de largo alcance en secuencias Esto los hace muy adecuados para tareas como la generación de texto, donde el modelo necesita entender el contexto de las palabras anteriores para generar la siguiente palabra. Transformers produjo una revolución 2018 en el procesamiento del lenguaje natural. Ahora veamos cómo funcionan los transformadores. Los transformadores se componen de dos partes principales, un codificador y un decodificador. Los codificadores son responsables de tomar una secuencia de entrada y convertirla en una secuencia de estados ocultos El codificador está formado por una pila de capas de autoatención. autoatención es un mecanismo que permite al codificador atender diferentes partes de la secuencia de entrada al generar los estados ocultos. Esto permite que el codificador aprenda dependencias de largo alcance en la secuencia de entrada, lo cual es esencial para tareas como la generación de texto Los decodificadores son responsables de tomar una secuencia de estados ocultos y generar una secuencia de salida El decodificador también está formado por una pila de capas de autoatención. Sin embargo, el decodificador también tiene una capa de atención especial que le permite atender la secuencia de entrada al generar la secuencia de salida. Esto permite que el decodificador aprenda a generar una salida que sea consistente con la secuencia de entrada. Entonces el codificador y el decodificador trabajan juntos para generar una secuencia de salida. El codificador primero convierte la secuencia de entrada en una secuencia de estados ocultos. El decodificador toma entonces estos estados ocultos y genera una secuencia de salida. La capa de atención de los decodificadores le permite atender la secuencia de entrada al generar la salida Esto permite que el decodificador aprenda a generar una salida que sea consistente con la secuencia de entrada. tiene varios beneficios uso de transformadores para IA generativa Primero, los transformadores son capaces de aprender dependencias de largo alcance en secuencias Esto les permite generar resultados más realistas y coherentes. Segundo, los transformadores son capaces de ser entrenados en conjuntos de datos muy grandes. Esto les permite aprender patrones y relaciones más complejos en los datos. Y tercero, múltiples transformadores paralelos son capaces de trabajar juntos. Esto les permite ser entrenados de manera más rápida y eficiente. Como resultado de estos beneficios, los transformadores se han convertido en el enfoque de vanguardia para una amplia variedad de tareas generativas de IA, como la generación de texto, la generación imágenes y la generación de música Algo a tener en cuenta al usar transformadores es que les es posible crear alucinaciones En transformadores, las alucinaciones son palabras o frases que son generadas por el modelo que a menudo son sin sentido o gramaticalmente incorrectas Pero, ¿por qué ocurren las alucinaciones? Las alucinaciones pueden ser causadas por una serie de factores, incluyendo que el modelo no está entrenado con suficientes datos, o el modelo se entrena en datos ruidosos o sucios, o al modelo no se le da suficiente contexto, o al modelo no se le dan Las alucinaciones pueden ser un problema para los transformadores porque pueden hacer el texto de salida sea difícil También pueden hacer que el modelo sea más propenso a generar información incorrecta o engañosa. Entonces, ¿cómo podemos mitigar las alucinaciones? Hay varias formas de mitigar las alucinaciones Una forma es entrenar al modelo con más datos. Otra forma es utilizar una técnica llamada búsqueda de haz, que permite al modelo explorar una gama más amplia de posibles salidas. Y por último, es importante darle al modelo suficiente contexto y restricciones para que no genere una salida sin sentido o gramaticalmente Aquí algunos ejemplos de alucinaciones que han sido generadas por transformadores El gato se sentó en la colchoneta y el perro se comió la luna. El chico fue a la tienda y compró un galón de aire. La mujer condujo al banco y retiró un millón de dólares. Como puede ver, estos ejemplos son todos sin sentido o gramaticalmente incorrectos Esto se debe a que los transformadores han generado estas palabras o frases sin ningún contexto ni restricciones. Es importante señalar que las alucinaciones no siempre son algo malo En algunos casos, pueden ser utilizados para generar textos creativos e interesantes. Sin embargo, es importante estar consciente del potencial alucinaciones al usar transformadores y tomar medidas para mitigarlas Los transformadores se están utilizando para generar una amplia variedad de contenido creativo, incluyendo texto, imagen, música e incluso video. Algunas de las aplicaciones más comunes de los transformadores en IA generativa incluyen la generación de texto Los transformadores se pueden utilizar para generar textos como artículos de noticias, publicaciones de blog y escritura creativa. Por ejemplo, el modelo transformador, GPT tres se ha utilizado para generar artículos de noticias falsas de aspecto realista, e incluso puede escribir poesía e historias Generación de imágenes. Los transformadores se pueden utilizar para generar imágenes como pinturas, fotografías y arte digital. Por ejemplo, el modelo transformador Imagine se ha utilizado para generar imágenes de aspecto realista de personas, animales y objetos. Generación de música. Los transformadores se pueden utilizar para generar música, como canciones, melodías y ritmos A modo de ejemplo, el modelo transformador Mus Net ha podido generar música original que suena como si estuviera compuesta por un músico humano. Y tenemos generación de video. Los transformadores se pueden utilizar para generar videos, como películas, programas de televisión y dibujos animados. Por ejemplo, el video del modelo transformador Deep Mind se ha utilizado para generar video de aspecto realista que parece que fue filmado por un operador de cámara humano. A medida que la tecnología continúa desarrollándose, podemos esperar ver aplicaciones aún más sorprendentes de transformadores en IA generativa Los transformadores tienen el potencial de revolucionar la forma en que creamos y consumimos contenido, y ya se están utilizando para crear algunas cosas realmente increíbles. 7. L2V2: IA de generación: Bienvenido a la Inteligencia Artificial generativa. Comenzamos este video explicando cómo distinguir entre IA generativa y machine learning tradicional Luego brindamos una definición formal para la inteligencia artificial generativa y terminamos el video con algunos ejemplos de IA generativa Aquí, estamos mostrando dos enfoques clave en la inteligencia artificial, aprendizaje automático tradicional y la inteligencia artificial generativa La imagen superior muestra el aprendizaje automático tradicional. Aquí, el modelo aprende de los datos con etiquetas adheridas a él. Lo que hace es averiguar el vínculo entre las características de los datos y sus etiquetas correspondientes. Esta comprensión se utiliza entonces para hacer conjeturas educadas sobre nuevos datos que no había visto antes Ahora la parte inferior de la imagen muestra algo un poco diferente. El modelo generativo de IA. En lugar de simplemente averiguar la relación entre entradas y salidas, profundiza Se enfoca en el patrón complejo en el contenido. Esta comprensión del patrón es lo que le da el poder de crear contenido nuevo y realista por sí solo. Esto podría ser cualquier cosa, un poema, un artículo de noticias, una imagen, o incluso una composición musical. Así ves que la IA generativa aporta un nuevo ángulo creativo al enorme mundo de la IA La naturaleza de la producción juega un papel crucial en la diferenciación entre IA generativa y otros modelos Los modelos tradicionales suelen producir resultados categóricos o numéricos, como si un correo electrónico es spam o no o predecir cifras de ventas Por otro lado, la IA generativa puede producir salidas como lenguaje escrito o hablado, imágenes, o incluso audio, reflejando su capacidad para generar contenido que imita Podemos imaginarlo así matemáticamente. Si esta ecuación no es algo que hayas visto recientemente, aquí tienes un recordatorio rápido. La ecuación Y es igual a F de X calcula el resultado basado en variables entradas Y simboliza el resultado del modelo. F significa la función que utilizamos en el cálculo. ¿Y qué pasa con X? Eso representa las entradas o entradas utilizadas en la ecuación. Entonces, en términos simples, la salida de los modelos es una función de todas las entradas. La clave aquí es comprender la naturaleza de la salida Y como una función de las entradas X. Los modelos tradicionales generalmente producen resultados numéricos. Mientras que los modelos generativos de IA pueden mapear esos valores numéricos a diferentes formas de información, haciéndolos capaces de generar respuestas complejas como frases en lenguaje natural o imágenes y videos Para resumir a un alto nivel, los procesos tradicionales de aprendizaje clásico supervisado y no supervisado, toman código de capacitación y etiquetan datos para construir un modelo Dependiendo del caso de uso o problema, el modelo puede darte una predicción. Puede clasificar algo o agrupar algo. La distinción radica en la aplicación. Los modelos tradicionales hacen predicciones, clasifican o agrupan datos, mientras que los modelos generativos de IA son más versátiles, creando una amplia gama de contenido El método generativo de IA puede funcionar con código de entrenamiento, datos etiquetados y datos sin etiquetar de todo tipo para construir lo que llamamos un modelo de base Este modelo de base puede entonces producir nuevo contenido, como texto, código , imágenes, audio, video, etc. El poder de la IA generativa radica en su capacidad para ingerir diversos tipos de datos, incluidos datos sin etiquetar para construir modelos que generen contenido fresco, que se extiende más allá de las capacidades de los modelos tradicionales Hemos recorrido un largo camino pasando de programación tradicional a las redes neuronales y ahora a los modelos generativos En los viejos tiempos de la programación tradicional, teníamos que introducir manualmente las reglas para diferenciar al gato. Tuvimos que incorporar reglas específicas en el programa. Era algo así como si es un animal con cuatro patas, dos orejas, hada, y muestra un gusto por el hilo y la catnip, entonces probablemente sea un gato Y teníamos que escribir todo eso en un lenguaje de programación y no en un lenguaje natural. En el camino de las redes neuronales, podríamos mostrar las imágenes de la red de gatos y perros, luego preguntar, ¿es esto un gato? La red probablemente respondería con una predicción, es un gato. Entonces podemos ver que las redes neuronales permiten una toma de decisiones más matizada mediante el entrenamiento en ejemplos, lo que es una evolución a partir de reglas de codificación duras En la onda generativa, podemos producir nuestro propio contenido, como texto, imágenes, audio, video, etcétera Modelos como Palm o Pathways Language Model, modelo de lenguaje Lambda para aplicaciones de diálogo y GPT, transformador preentrenado generativo, consumen grandes cantidades de datos de diversas fuentes, incluyendo Internet para construir modelos de lenguaje básico, que se pueden utilizar simplemente haciendo una pregunta, ya sea escribiendo en un mensaje o hablando verbalmente en el avisar a sí mismo. Entonces, si preguntamos qué es un CAT, puede darnos todo lo que haya aprendido sobre el gato. IA generativa aumenta la interacción del usuario, convirtiendo a los usuarios de meros espectadores a creadores activos modelos como Palm, Lambda Destacan modelos como Palm, Lambda y GPT. Están capacitados en grandes conjuntos de datos y proporcionan respuestas inteligentes conscientes del contexto. Este enfoque en el usuario hace que IA generativa sea atractiva para una variedad de aplicaciones diferentes Ahora vamos a proporcionar nuestra definición formal. ¿Qué es la IA generativa? La IA generativa es un tipo de inteligencia artificial que crea nuevo contenido basado en lo que ha aprendido del contenido existente El proceso de aprendizaje del contenido existente se denomina capacitación y da como resultado la creación de un modelo estadístico cuando se le da un prompt. IA utiliza el modelo para predecir cuál podría ser una respuesta anepectada y esto genera nuevo contenido El énfasis aquí está en la heredabilidad de la IA generativa para aprender y crear A diferencia de los modelos tradicionales, que predicen con base en relaciones preestablecidas, IA generativa se enfoca en comprender la estructura subyacente de los datos de entrada Después del entrenamiento, el modelo puede generar respuestas o contenido únicos, lo que amplía significativamente las aplicaciones y capacidades de los sistemas de IA Esencialmente, aprende la estructura subyacente de los datos y luego puede generar nuevas muestras que son similares a los datos en los que se entrenó. Entonces veamos cuál es la diferencia entre los modelos de lenguaje y los modelos de imagen. Los modelos de lenguaje generativo aprenden sobre patrones en el lenguaje a través de datos de entrenamiento Entonces dados algunos textos, predicen lo que viene después. Los modelos de imagen generativa producen nuevas imágenes utilizando técnicas como la difusión Luego, dadas una pronta o imágenes relacionadas, transforman el ruido aleatorio en imágenes o generan imágenes a partir de las indicaciones Profundicemos un poco más en cada uno de ellos. Como se mencionó anteriormente, los modelos de lenguaje generativo se enfocan en captar la estructura inherente del patrón dentro de los Luego aprovechan estos patrones aprendidos para generar respuestas o contenido novedosos. Que a menudo se asemejan mucho a los datos originales. Estas características hacen que los modelos de lenguaje de gran tamaño sean un ejemplo excepcional de potencial AIS generativo Un modelo de lenguaje generativo toma texto como entrada y puede generar más texto e imagen, audio o decisiones Por ejemplo, bajo el texto de salida, se genera respuesta a preguntas, y bajo imagen de salida, se genera video. Por lo que los modelos de lenguaje grandes son un tipo de IA generativa porque generan combinaciones novedosas de textos en forma de lenguaje sonoro natural También contamos con modelos de imagen generativos, que toman una imagen como entrada y pueden generar texto, otra imagen o video Por ejemplo, bajo el texto de salida, se puede obtener respuesta visual a preguntas, que es una tarea en visión por computador que implica responder preguntas sobre una imagen, mientras que bajo imagen de salida, se genera una finalización de imagen. Y en su video de salida, se genera animación. Como mencionamos antes, modelos de lenguaje generativo aprenden sobre patrones y estructuras del lenguaje a través de sus datos de entrenamiento Y luego cuando se les da algún texto, tratan de predecir lo que viene después. Entonces, en cierto sentido, los modelos de lenguaje generativo pueden verse como sistemas de coincidencia de patrones, perfeccionando su capacidad para discernir patrones a partir de los datos que se les presentan Ahora que brindamos la definición formal de inteligencia artificial generativa, terminemos este video con algunos ejemplos de IA generativa Aquí hay un ejemplo de la función de autocompletar la búsqueda de Google. A partir de cosas que aprendió de sus datos de entrenamiento, ofrece predicciones de cómo completar esta oración. Los gatos odian, y algunas de las sugerencias son que los gatos odian el olor de los gatos odian el agua, los gatos odian los pepinos. Aquí está el mismo ejemplo usando bar, que es un modelo de lenguaje que se entrena en una cantidad masiva de datos de texto y es capaz comunicarse y generar texto humano como respuesta a una amplia gama de indicaciones y preguntas Entonces cuando uso el prompt, los gatos odian que responda. Los gatos odian muchas cosas, pero algunas de las más comunes incluyen, y luego una lista de cosas que piensa que los gatos odiarían. Y el mismo prompt usando GPT four produce esta respuesta. Los gatos odian. Los gatos pueden expresar aversión o incomodidad en respuesta a una variedad de situaciones, objetos o comportamientos A continuación se presentan algunas de las cosas que normalmente no les gustan a los gatos y enumera algunas de las cosas que piensa que los gatos odiarían Similar a Bart, GPT four es también un modelo de lenguaje entrenado en una cantidad masiva de datos de texto y es capaz de comunicarse y generar texto similar al humano en respuesta a una amplia gama de indicaciones y Ahora veamos algunos ejemplos de generación de imágenes. Usamos el mismo prompt en tres herramientas de IA diferentes. El aviso es un gato rodeado de cosas que los gatos odian. Si probamos este prompt en DALE, que es un generador de imágenes AI que es construido por OpenAI, la misma compañía que construye GPT Obtenemos este resultado. También podemos probarlo en Adobe Firefly Tik al generador de imágenes Y estos son algunos de los resultados que obtenemos de Firefly También podemos probar la aplicación Canva texto a imagen, y proporciona algunos ejemplos de lo que considera apropiado en respuesta a nuestras indicaciones Por favor, tenga en cuenta que aquí utilizamos un prompt muy minimalista, solo para demostrar que incluso sin proporcionar mucho contexto, aún podemos producir resultados que son más o menos relevantes Obtendríamos un resultado mucho mejor si nuestro prompt incluyera más detalles y siguiera una estructura sólida. Esto señala la importancia del diseño rápido y la ingeniería rápida, que cubrimos más adelante en esta sección. En el siguiente video, hablaremos de transformadores, una tecnología que hizo posible todo esto. Nos vemos en la siguiente. 8. L2V3: aplicaciones de IA de generación: Echemos un vistazo al tipo de tareas que pueden realizar diferentes modelos de IA. Esta tarea generalmente se puede clasificar en función del tipo de datos de entrada que aceptan y el tipo de datos de salida que generan. Aquí hay algunos ejemplos. Texto a texto. Esto se usa típicamente en traducción automática, resumen de texto y chatbots como Bard y chat Por ejemplo, si le preguntas a GPT cuatro, ¿qué es un gato? Yo te diría, un gato es un pequeño mamífero carnívoro que a menudo se guarda como mascota El término generalmente se refiere a, y luego sigue generando más información relacionada con los gatos. Otro modelo es texto a imagen. Esto se utiliza para generar imágenes a partir de descripciones de texto. Un ejemplo de esto sería aplicación Canvas texto a imagen, que crea imágenes a partir de entradas de texto. En este ejemplo, podemos usar el prompt un gato gris y blanco sentado en el alféizar de una ventana observando palomas afuera Y va a generar esta imagen para nosotros. Texto a video. IA también se puede utilizar para generar videos a partir de descripciones de texto, aunque esta es una tarea más compleja y menos explorada que la generación de texto a imagen. Por ejemplo, usando herramientas como en video, podemos crear un video con solo un baile de graduación de texto. El modelo de IA utiliza nuestro prompt para escribir un guión para el video y luego selecciona imágenes y videoclips que son relevantes para el contenido del guión. Incluso puede aplicar filtros y transiciones al video. Algunas de estas herramientas también pueden elegir una música que sea relevante para el contenido del video. Por ejemplo, el modelo de IA puede asociar a las mascotas con la alegría y luego elegir una música lúdica para agregar al video Texto a tres D, estos modelos generan objetos tridimensionales que corresponden a la descripción del texto de un usuario. Por ejemplo, si le preguntas a Shape E, un modelo generativo condicional para tres activos D para hacer un avión que parezca un plátano Crea el objeto tres D que puedes ver aquí. También tenemos texto a código. Estos modelos son capaces de usar descripción del lenguaje natural y luego crear un código basado en eso. Es útil para tareas como la generación automatizada de código, detección de errores y la traducción de código. Por ejemplo, hat GPT, Bart y Github copiloto comparten la capacidad de generar código. Modelos como Chat GPT, debido a su formación en una amplia gama de textos de Internet, incluido el código, tienen la capacidad generar código cuando se les proporciona un baile de graduación adecuado Bart dos trabaja en la misma línea, pero su formación se centra específicamente en la programación de textos relacionados. También tenemos el copiloto de Github que utiliza el modelo Codex de OpenAI, cual está capacitado en código disponible públicamente, lo que le permite sugerir la finalización del código y generar código a partir de comentarios o Toma a la tarea. Los modelos de tomas a tarea están capacitados para realizar una tarea o acción definida basada en la entrada de texto. Esta tarea puede ser una amplia gama de acciones como responder a una pregunta, realizar una búsqueda, hacer una predicción o tomar algún tipo de acción. Por ejemplo, un modelo de Ts a tarea podría ser entrenado para navegar por una interfaz de usuario web o realizar cambios en un documento a través de la GUI. También tenemos imagen a texto. Esto se usa en tareas como subtitulado de imágenes donde la IA describe una imagen en palabras Por ejemplo, BLiP que es un modelo de IA capaz tanto de subtitular como de generar imágenes, puede tomar una imagen como entrada y proporcionar una descripción de esa imagen en texto como También tenemos imagen a imagen. Estos modelos realizan tareas como la traducción de imágenes, por ejemplo, convertir imágenes de día a noche, colorar imágenes en blanco y negro, o mejorar la resolución de la imagen Por ejemplo, Night Cafe es un generador de imágenes AI que puede tomar una imagen como entrada para inicializar el proceso de creación de imágenes Luego produce una imagen estilizada como salida basada en el prompt del usuario y otros ajustes que se pueden ajustar Dependiendo del algoritmo elegido, artístico o coherente, la imagen de inicio sirve para diferentes propósitos. Para el algoritmo artístico, las formas y estructuras en la imagen son más significativas. Pero en el algoritmo coherente, se presta más atención a la resolución, los colores y las texturas. Como otro ejemplo, veamos la función de edición mágica de Canva Mediante esta función, podemos seleccionar una parte específica de la imagen y reemplazarla por otra diferente. Por ejemplo, aquí, selecciono la canasta y luego le digo al modelo que quiero reemplazarla por una cordillera, esperando que el resultado haga que parezca que el gato está sentado sobre una roca. Y podemos ver que el modelo crea algunas sugerencias para mí. Si no estoy contento con el resultado, puedo pedirle al modelo que regenere los resultados hasta que encuentre algo que me guste Y aquí está el resultado final. Incluso puedo ir más allá y seleccionar el techo al fondo y pedirle al modelo que lo reemplace por el cielo con nubes. Y así es como se ve el resultado. Video a texto. Esto implica generar una descripción de texto o una transcripción a partir de un video. Por ejemplo, RS AI puede crear transcripciones o subtítulos a partir de una entrada de video, incluso traduciéndolos de un idioma a otro Si bien lo que vemos en este ejemplo es subtitular solo el elemento de voz del video, algunas de las herramientas de subtitulado más avanzadas también son capaces de subtitular elementos que no son del habla elementos que no son del habla pueden incluir efectos de sonido, por ejemplo, zumbido de abeja, jangling de queso o timbre de puerta, música, ya sea de fondo o como parte de una escena, reacciones de la audiencia, por ejemplo, reír, gemir o abuchear, manera de hablar, por ejemplo, susurrar, gritar, enfatizar una Los elementos que no son del habla pueden incluir efectos de sonido, por ejemplo, zumbido de abeja, jangling de queso o timbre de puerta, música, ya sea de fondo o como parte de una escena, reacciones de la audiencia, por ejemplo, reír, gemir o abuchear, manera de hablar, por ejemplo, susurrar, gritar, enfatizar una palabra o hablar con acento y altavoz para un narrador o altavoz fuera de pantalla o para múltiples altavoces De igual manera, tenemos audio a texto. Esto se usa típicamente en sistemas de reconocimiento de voz para transcribir el lenguaje hablado en texto escrito Whisper by Open AI es un ejemplo de un modelo de audio a texto La IA también puede convertir el texto en discurso sintetizado. Los sistemas de texto a voz convierten el texto a un lenguaje hablado. Muchas herramientas de IA como play dot HT, pueden tomar una entrada de texto y generar un discurso humano como con voces sintetizadas que pueden parecerse a diferentes géneros, edades, acentos o incluso tonos diferentes, como feliz, triste, enojado, etcétera Imagen a video. Esta tarea consiste en generar una secuencia de imágenes o un video a partir de una sola o un conjunto de imágenes. Por ejemplo, las fotos cinematográficas, una característica de Google Photos, utilizan el aprendizaje automático para estimar profundidad de una imagen y construir una representación en tres D de la escena, independientemente de que la imagen original contenga información de profundidad de la cámara Siguiendo esta estimación, el sistema anima una cámara virtual para crear un efecto de panorámica suave similar a una secuencia cinematográfica Este intrincado proceso utiliza inteligencia artificial para transformar una imagen estática en una escena tridimensional dinámica, dándole una calidad similar a un video Lo que discutimos hasta ahora son solo algunos ejemplos, y la lista crece continuamente a medida que avanza el campo de la IA y a medida que los investigadores inventan nuevas aplicaciones para estas tecnologías Además, en muchas aplicaciones del mundo real, estas tareas se combinan. Por ejemplo, un sistema de IA puede necesitar convertir voz en texto usando un modelo de voz a texto, y luego procesar el texto usando un modelo de texto a texto, y después de eso, generar una respuesta de lenguaje hablado apropiada, que usa un modelo de texto a audio. Pero espera, hay más. Hay muchos otros campos en los que GNAI puede tener aplicaciones innovadoras. Por ejemplo, basta con considerar la palabra de la música. Las tareas relacionadas con la música son un área activa de investigación y desarrollo en IA. Aquí hay algunas tareas comunes. Tenemos texto a música. Estos modelos pueden generar música a partir de entradas de texto. Por ejemplo, pueden crear una melodía o una composición descrita por una frase o un trozo de texto. Música a texto. Por otro lado, la IA también puede convertir música en texto, como crear partituras para una canción o generar texto descriptivo o emocional basado en una pieza musical. Tenemos audio a audio, que puede convertir un tipo de sonido o música en otro, como cambiar el género de una canción, convertir un zumbido en una pieza compuesta, o incluso eliminar voces de las pistas También hay recomendación musical. La IA se usa mucho para recomendar música en función de los hábitos de escucha de los usuarios, preferencias e incluso estado de ánimo También tenemos generación de música. Mus Net de Open AI es un ejemplo de generación musical. Modelos como Mus enet de OpenAI pueden generar composiciones musicales de cuatro minutos con diez instrumentos diferentes y pueden combinar estilos desde country hasta mozart y los beatles También hay realce musical. Por ejemplo, audio Studio se puede utilizar para mejorar o alterar la música existente. Puede hacerlo por cosas como mejorar la calidad de audio, cambiar el tempo o agregar efectos Y también hay separación de fuentes musicales. También podemos usar modelos de IA para separar instrumentos individuales, voces u otros componentes de una pista mixta o maestra Metas DMax es un ejemplo de una herramienta de separación de fuentes musicales Entonces, en conclusión, el ámbito de la IA generativa es diverso, fascinante y lleno de potencial La gama de tareas que puede realizar de toma a toma, toma a imagen, audio para tomar, e incluso tareas intrincadas como mejora de la música y la generación es realmente notable Es un campo que evoluciona continuamente, traspasando los límites de lo que pensamos que era posible. A medida que continuemos explorando e innovando, la lista de aplicaciones sólo se va a ampliar IA generativa es la clave muchos avances y avances que podrían revolucionar números de sectores y la forma en que interactuamos con la sectores y A medida que continuamos explorando esta emocionante era de IA, quién sabe qué posibilidades asombrosas podríamos descubrir La clave es mantener la curiosidad, seguir explorando y comenzar a imaginar un futuro en el que podamos interactuar con los sistemas de IA de una manera confiable, responsable y ética 9. L2V4: ingeniería rápida: Hablemos de un tema intrigante en el ámbito de la IA generativa, la ingeniería rápida Como su nombre indica, la IA generativa se trata de sistemas que generan salida, ya sea texto, imágenes o cualquier otro tipo de contenido Como verás en la siguiente sección de este curso, los modelos de lenguaje grandes o LLM, que son la potencia de la IA generativa, están diseñados para generar texto similar al humano a partir Además de generar textos similares a humanos, los LLM también ayudan a traducir nuestros prompts en salidas de otro tipo de contenido, como imágenes y videos Esto significa que cuanto mejores sean nuestras indicaciones de entrada, consigamos una salida de mayor calidad de cualquier herramienta generativa de Hoy, exploraremos varios aspectos clave relacionados con estas indicaciones de entrada Aclararemos qué es exactamente un prompt y su papel en la configuración de la salida del modelo. Distinguiremos entre el diseño rápido y ingeniería rápida y luego pasaremos a introducir varios métodos de ingeniería rápida. Y por último, discutiremos las limitaciones de la ingeniería rápida para brindarle una comprensión realista y expectativa de este emocionante proceso. Así que comencemos. Entonces, ¿qué es un prompt? Un prompt es esencialmente una pieza de texto que se le da a un modelo generativo de IA como entrada Pero no se trata de cualquier toma. Sirve a un propósito fundamental. Estas indicaciones son su enlace de comunicación con el modelo. Dirigen el modelo de IA y dirigen su generación de salida. El modelo toma en su prompt, procesa, y entrega una salida que se alinea con la instrucción prompts. En otras palabras, estas indicaciones son su herramienta para controlar la salida del modelo Piense en un prompt como su instrucción guía para el modelo generativo de IA, como un director que guía a un actor Cuanto más precisa y clara sea tu dirección, mejor será la actuación que puedas esperar del actor. Del mismo modo, las indicaciones bien diseñadas permiten el modelo produzca salidas más específicas y de mayor calidad Recuerde, la clave radica en la calidad y el diseño de sus indicaciones, y aquí es donde entran en juego los conceptos de diseño rápido e ingeniería rápida, que vamos a discutir ahora Como mencionamos anteriormente, la calidad del prompt juega un papel crucial en determinación de la calidad de la salida a partir de un modelo generativo de IA Aquí, dos conceptos entran en la imagen diseño rápido e ingeniería rápida. diseño rápido se refiere a la elaboración de indicaciones que son específicas de la tarea que se le pide al modelo Por ejemplo, si quieres que el modelo traduzca un fragmento de texto del inglés al francés, el prompt se escribiría en inglés y especificaría que la salida deseada debe estar en francés. En esencia, se trata de crear prompts que generen la salida deseada Por otro lado, contamos con ingeniería pronta. Este proceso se trata más mejorar el rendimiento del modelo. Implica estrategias como aprovechar el conocimiento específico del dominio, proporcionar ejemplos del resultado deseado o incorporar palabras clave que se sabe efectivas para cualquier modelo de IA generativa en particular Entonces ya ves, mientras ambos conceptos giran en torno a la elaboración de indicaciones, sirven para El diseño rápido consiste en adaptar las indicaciones a tareas, mientras que la ingeniería rápida tiene como objetivo aumentar el rendimiento Sin embargo, no son mutuamente excluyentes. En la práctica, crear un prompt efectivo a menudo implica tanto diseñarlo para la tarea diseñarlo para un mejor desempeño. Ahora veamos algunas de las técnicas empleadas en la ingeniería rápida para maximizar la calidad de salida de nuestros modelos generativos de IA Uno de esos métodos es el uso de conocimiento específico del dominio. Cuando conoce bien el área de tareas, puede aprovechar esa experiencia para diseñar indicaciones que guían el modelo de manera más efectiva Por ejemplo, si estás trabajando en IA médica, podrías usar terminología y estructuras médicas en tus indicaciones para aumentar la precisión Otro método es usar palabras clave conocidas por ser efectivas para un modelo específico. Al igual que en la optimización de motores de búsqueda, donde palabras clave específicas ayudan a clasificar las páginas más altas, ciertas palabras clave pueden dirigir el modelo de manera más efectiva. La elección de las palabras clave se basaría en los datos de entrenamiento del modelo y sus patrones aprendidos. Con modelos como Bart o chat GPT, puedes preguntarle directamente al modelo sobre estas palabras clave y cómo usarlas para optimizar tu prompt También debemos considerar estrategias avanzadas como la provocación de roles, la incitación disparos y la provocación de cadenas de pensamiento motivación de roles es una técnica que instruimos al modelo GNAI para que asuma un determinado rol o persona mientras genera Por ejemplo, podrías instruir al modelo para que responda como si fuera un historiador explicando las causas de la primera guerra mundial El modelo luego utiliza sus datos de entrenamiento para generar una respuesta que se alinee con esta persona incitación de disparos, por otro lado, implica dar una foto de contexto antes de la instrucción real Puede proporcionar ejemplos de la salida deseada. Esto ayuda a guiar el modelo proporcionándole una referencia o plano de lo que se espera Por ejemplo, si quieres un resumen de un documento, podrías proporcionar algunos ejemplos de resúmenes junto con el texto original O si buscas una crítica de una película, en lugar de simplemente decir, escribe una crítica de la película X, podrías decir, Imagina que acabas de terminar de ver la emocionante película X en un cine abarrotado Escribe una crítica de la película. Este contexto agregado puede guiar al modelo para producir una salida más cargada emocionalmente y consciente del contexto. Hay diferentes tipos de incitación de disparo, cero, uno y pocos disparos Zero shot provocando tareas el modelo Gen AI sin ejemplos previos Por ejemplo, traduce esta frase en inglés al francés. El chat es barrido. Aquí, estamos brindando una tarea sin un ejemplo específico de cómo se debe hacer. indicación de un solo disparo proporciona un solo ejemplo de orientación Por ejemplo, continúe la siguiente historia. Érase una vez en una tierra lejana, hubo una noche valiente. Y luego brindamos un ejemplo de continuación de una historia. El modelo luego intenta continuar la historia siguiendo el estilo del ejemplo que brindamos. Y tenemos pocas indicaciones de disparo, que también se conoce como incitación multidisparo Aquí, proporcionamos múltiples ejemplos para ayudar al modelo. Un ejemplo sería pedirle al modelo que genere una revisión de producto, precedida de una serie de reseñas de productos de ejemplo. El modelo intentará escribir una reseña similar a los ejemplos que brindamos. Y por último, pero no menos importante, la generación de una cadena de pensamiento implica proporcionar una línea de razonamiento o argumento al modelo de la GNAI En lugar de una pregunta o instrucción directa, das una serie de pensamientos que llevan a la pregunta. Por ejemplo, en lugar de preguntar, cuáles son las causas del calentamiento global, incitaría con que hemos visto un aumento de las temperaturas globales en las últimas décadas. Este cambio a menudo denominado calentamiento global parece estar influenciado por diversos factores. ¿Cuáles son estas causas? Estas estrategias pueden mejorar la riqueza y relevancia de la producción del modelo, demostrando aún más el poder de la ingeniería rápida y hábil. Recuerde, estos no son métodos independientes, pero a menudo se pueden combinar para diseñar un poderoso prompt. Ahora que tenemos una comprensión de estas técnicas, pasemos a las limitaciones de la ingeniería rápida. Si bien la ingeniería rápida abre oportunidades emocionantes para afinar la salida de un modelo generativo de IA, es importante tener en cuenta que no es una varita mágica que siempre pueda garantizar resultados perfectos Hay ciertas limitaciones y limitaciones que debemos tener en cuenta. Primero, los modelos generativos de IA, aunque potentes, no son omnipotentes Están capacitados en una amplia gama de datos, pero esto no significa que tengan la capacidad de responder con precisión cualquier pregunta o cumplir con cualquier tarea que le indiques. Por ejemplo, el modelo no tiene la capacidad de generar contenido fuera de su fecha límite de entrenamiento o predecir con precisión eventos futuros En segundo lugar, la precisión y relevancia de la salida del modelo depende en gran medida la calidad y claridad de su solicitud. Sin embargo, incluso un prompt perfectamente diseñado no siempre puede producir el resultado esperado debido a la imprevisibilidad inherente de los modelos de IA En tercer lugar, incluso con una meticulosa ingeniería rápida, los modelos a veces pueden generar resultados que son fácticamente incorrectos o Esto se debe a que estos modelos generan respuestas basadas en patrones que aprendieron durante el entrenamiento, y no entienden el contenido en el sentido humano. Y por último, ciertas tareas pueden requerir un nivel de especificación o conocimiento específico de dominio que supere la formación del modelo Un modelo de IA generativa de propósito general puede no ser capaz de generar con precisión contenido altamente especializado o respuesta a indicaciones altamente técnicas en campos como el derecho, las matemáticas avanzadas o subdisciplinas médicas específicas Entonces, si bien la ingeniería rápida es una herramienta poderosa, es esencial estar al tanto de estas limitaciones para mantener expectativas realistas y usar modelos generativos de IA de manera más efectiva Bien, vamos a terminar las cosas. Hoy, hemos explorado el mundo de las indicaciones en modelos generativos de IA Hemos aprendido sobre el diseño rápido y la ingeniería y discutimos varios métodos, como la incitación de disparos, la incitación a rodar y la generación de mensajes de pensamiento Recuerde, la ingeniería rápida no es una bala mágica. Es una herramienta, y como cualquier herramienta, tiene sus limitaciones. Así que experimenta con la creación tus propios prompts y explora las posibilidades Gracias por mirar, y te veré en la siguiente. 10. L3V1: LLM: Bienvenido a la introducción a los modelos de idiomas grandes. Los modelos de lenguaje grandes o LLM para abreviar, son un subconjunto del aprendizaje profundo Se cruzan con la IA generativa, que también forma parte del aprendizaje profundo Ya explicamos que la IA generativa es un tipo de inteligencia artificial que puede producir nuevos contenidos, incluyendo texto, imágenes, audio y datos sintéticos Pero, ¿qué son los modelos de idiomas grandes? Cuando usamos el término modelos de lenguaje grande, nos referimos a grandes modelos de lenguaje de propósito general que podemos pre-entrenar y luego afinar para satisfacer nuestras necesidades para propósitos específicos. Pero, ¿qué queremos decir con pre entrenado y afinado? Piensa en el proceso de entrenar a un perro. Por lo general, instruye a su perro en comandos básicos como sentarse, calmarse y quedarse Estos comandos suelen ser suficientes para el día a día, ayudando a tu perro a convertirse en un perro bien portado en el vecindario Sin embargo, cuando se requiere que un perro cumpla un rol especial, como un perro de seguridad, un perro guía o un perro policía, se hace necesario un entrenamiento específico adicional. El mismo principio se aplica a los modelos de lenguaje grande, igual que el entrenamiento especializado prepara a los perros para sus roles únicos, ajuste fino de un modelo de lenguaje grande preentrenado le permite realizar tareas específicas de manera eficiente y precisa, ya sea análisis de sentimientos o traducción automática El modelo puede ser perfeccionado a Excel en el dominio deseado. Estos modelos reciben capacitación con un enfoque amplio, preparándolos para abordar las tareas relacionadas con el lenguaje estándar como la clasificación de textos, una tarea de procesamiento del lenguaje natural ampliamente utilizada que implica categorizar el texto en grupos organizados en función de su contenido Respuesta a preguntas, que es una tarea importante en el procesamiento del lenguaje natural, donde el modelo está capacitado para comprender y responder a las consultas con precisión, simulando esencialmente la capacidad humana comprender y responder documentos, donde el modelo tiene la tarea producir un resumen conciso y fluido de un texto grande, mantener la esencia y ideas primarias y generación de texto en múltiples industrias, crear texto humano, que se puede adaptar a industrias específicas, ya sea redactar correos electrónicos en comunicación corporativa, crear descripción del producto en ecommerce, o generar reportes de pacientes en salud. Estos modelos poseen la capacidad de ajustarse con precisión para resolver desafíos únicos dentro de varios sectores, incluidos el comercio minorista, las finanzas y el entretenimiento, utilizando conjuntos de datos específicos de campo comparativamente más pequeños Por ejemplo, en retail, se pueden utilizar para recomendaciones de productos personalizadas basadas en datos de texto. Mientras están en las finanzas, pueden ayudar a predecir las tendencias del mercado a partir de informes financieros O en la industria del entretenimiento, podrían ayudar en generación de guiones o la recomendación de contenido, mostrando la flexibilidad y amplia aplicabilidad de los modelos de lenguaje grande Vamos a desglosar aún más el concepto en tres características principales de los modelos de lenguaje grandes. Los modelos de lenguaje grande son grandes, propósito general, y preentrenados y afinados. Discutamos cada uno de ellos por separado. El término grande se refiere a dos cosas. En primer lugar, señala tamaño masivo del conjunto de datos de entrenamiento, llegando a veces a la escala de petabytes En segundo lugar, señala el inmenso número de parámetros involucrados. En el ámbito del aprendizaje automático, estos parámetros suelen denominarse hiperparámetros Esencialmente, estos parámetros actúan como la memoria y el conocimiento que la máquina gana durante el entrenamiento del modelo. A menudo esbozan la competencia de un modelo para abordar una tarea como la predicción Al ajustar estos parámetros, podemos afinar el rendimiento del modelo para una predicción más precisa. Propósito general significa que los modelos son lo suficientemente potentes como para resolver problemas cotidianos comunes Este concepto está liderado por dos razones. En primer lugar, el lenguaje humano exhibe una naturaleza universal, independientemente de la tarea distinta a la que se aplique. En segundo lugar, hay que considerar las limitaciones de recursos. Solo un número limitado de organizaciones tienen la capacidad de entrenar estos modelos masivos de lenguaje, que requieren conjuntos de datos extensos y una cantidad masiva de parámetros. Entonces, ¿por qué no dejar que estas organizaciones construyan modelos de lenguaje fundacional que otros puedan usar Esto nos lleva al aspecto final de los modelos de lenguaje de gran tamaño, preentrenamiento y afinación fina. Esencialmente, esto significa que un modelo de lenguaje grande se preentrena primero para casos de uso amplios, utilizando un extenso conjunto de datos, recopilando una amplia gama de patrones lingüísticos y conocimientos. Después de esta etapa de preentrenamiento, el modelo se afina para atender a objetivos particulares utilizando un conjunto de datos relativamente más pequeño y especializado. Este proceso de dos pasos asegura que el modelo mantenga una amplia base de comprensión al tiempo que es capaz de comprender profundamente y generar predicciones específicas para un campo o tarea determinados. Y con eso, concluimos nuestra introducción a los modelos de lenguaje de gran tamaño. En el siguiente video, discutiremos algunos de los beneficios de usar LLM 11. L3V2: beneficios de LMM: En este video, vamos a explorar los diversos beneficios de usar modelos de lenguaje grande o LLM para abreviar Veremos cómo estos impresionantes modelos de IA se pueden usar para una variedad de tareas, cómo funcionan con datos mínimos de entrenamiento de campo y cómo continúan mejorando a medida que se agregan más datos y parámetros. También discutiremos cómo LLM se adaptan a diferentes escenarios de aprendizaje, incluso con la presencia de datos previos mínimos Entonces, ojalá al discutir estos beneficios, podamos ver por qué las LLM son un gran salto adelante en el ámbito de la inteligencia artificial Hay muchos beneficios claros e impactantes en el empleo de LLM No están restringidos a una sola tarea. Un modelo por sí mismo es una potencia multitarea cumple muchos Estos sofisticados LLM, que están capacitados en un enorme volumen de datos y desarrollan miles de millones de parámetros, tienen la capacidad manejar una variedad de tareas Por ejemplo, sobresalen en responder preguntas. Los LLM pueden examinar sus amplios datos de capacitación para encontrar las respuestas más adecuadas y precisas a una amplia gama de consultas Son capaces de entender el contexto, la ambigüedad e incluso los nonces en el lenguaje, haciéndolos altamente efectivos en las tareas de respuesta a preguntas El modelo genera una respuesta coincidente con el contexto, tono y complejidad de las consultas , proporcionando precisas y contextualmente apropiadas En términos de generación de texto, los LLM realmente brillan. Pueden crear texto de alta calidad que sea coherente, contextualmente apropiado y notablemente humano Ya sea que se trate de generar una noticia, escribir un poema o incluso inventar una historia atractiva, LLM son altamente capaces También pueden ayudar con tareas como la creación de contenido, asistencia en la redacción e incluso la finalización del borrador. Al considerar la entrada dada y utilizar su vasta base de conocimientos, pueden generar texto que no sólo es gramaticalmente correcto, sino que también es rico en contenido satisfagan las demandas de diversos casos de uso Los modelos de idiomas grandes también son altamente capaces en la traducción de idiomas. Equipados con el conocimiento de numerosos idiomas a partir de sus extensos datos de formación, pueden traducir con precisión textos de una lengua a otra, manteniendo el significado semántico y el contexto del texto original No solo trabajan con idiomas comúnmente hablados, sino que los LLM también pueden manejar los menos utilizados, lo que los convierte en una herramienta invaluable para la comunicación intercultural Además, pueden comprender y adaptarse a diferentes dialectos, jerga y lenguaje informal, asegurando que las traducciones sean precisas, asegurando que las traducciones sean precisas, legibles LLM también son una herramienta poderosa cuando se trata de lluvia de ideas Pueden generar ideas, sugerir perspectivas alternativas y contribuir a la resolución creativa de problemas. Ya sea que estés buscando un titular pegadizo, una estrategia de marketing única o una trama nueva para una novela, estos modelos pueden generar numerosas posibilidades basadas en el contexto que les proporcionas Al capacitarse en una amplia gama de datos, han aprendido a idear ideas diversas e innovadoras que pueden generar más inspiración y ayudar a que su proyecto avance. No solo eso, sino que también pueden ofrecer críticas y sugerencias para mejorar las ideas existentes, actuando como un socio artificial de lluvia de ideas disponible en cualquier momento Y hay mucho más. Más allá de la tarea que hemos discutido hasta ahora, LLM tienen una gran cantidad de otras capacidades Por ejemplo, pueden ser utilizados en el análisis de sentimientos, determinando si una pieza de texto transmite un sentimiento positivo, negativo o neutral Pueden ayudar a resumir largos fragmentos de texto. Los LLM también se pueden utilizar en sistemas de tutoría, proporcionando explicaciones para temas complejos en una variedad de temas en una variedad Las posibilidades son infinitas y se expanden constantemente a medida que estos modelos continúan evolucionando y mejorando. Otro beneficio importante de los grandes modelos de lenguaje es su capacidad para desempeñarse de manera impresionante con datos mínimos de entrenamiento adaptados a un problema específico Pueden ofrecer resultados de calidad incluso cuando se les proporciona una pequeña cantidad de datos específicos del dominio. Esta calidad los hace altamente adaptables a pocos escenarios de aprendizaje de tiro o tiro cero. Ahora, no nos confundamos aquí. Déjame explicarte cuál es la diferencia entre el aprendizaje de tiro y el impulso de disparos. Como discutimos en el video de ingeniería rápida, disparo implica dar una toma de contexto antes de la instrucción real Este contexto agregado puede guiar al modelo para producir una salida más cargada emocionalmente y consciente del contexto. También dijimos que hay diferentes tipos de incitación de disparo, cero, uno y pocos disparos Zero shot provocando tareas el modelo GNAI sin ejemplos previos Un disparo proporciona un solo ejemplo, y pocos disparos proporcionan múltiples ejemplos para ayudar al modelo En el contexto del aprendizaje automático, el aprendizaje poco plano se refiere a escenarios en los que un modelo se entrena sobre un conjunto limitado de datos. Este proceso es particularmente beneficioso en situaciones donde grandes cantidades de datos de entrenamiento no están disponibles o son prácticos. Por otro lado, tiro cero se refiere a una capacidad aún más impresionante de los modelos. Implica que un modelo puede identificar y comprender conceptos o tareas en las que no se ha entrenado explícitamente. Es como tener un sistema inteligente que pueda hacer suposiciones lógicas y entregar soluciones basadas en el conocimiento que ha adquirido, incluso ante escenarios completamente nuevos. Así podemos ver que los LLM pueden sobresalir incluso en escenarios de tiro cero gracias a su entrenamiento en vastos conjuntos Pueden manejar nuevas situaciones aprovechando su amplio conocimiento para inferir respuestas adecuadas, incluso sin haber encontrado directamente el escenario específico en sus datos de entrenamiento En esencia, los LLM se pueden adaptar rápidamente a una amplia gama de tareas, incluso cuando esas tareas están fuera del dominio específico en el que el modelo fue entrenado originalmente Esta adaptabilidad abre un mundo de posibilidades para utilizar estos modelos en diversos campos y aplicaciones Un beneficio clave de los LLM es su mejora consistente a medida que aumentamos la cantidad de datos y el número de parámetros involucrados en su capacitación Por ejemplo, considere el viaje de GPT 3.5 con 175 mil millones de parámetros a GPT cuatro con un estimado de 170 billones El aumento exponencial en el recuento de parámetros condujo a un avance notable en las capacidades, comprensión y precisión del modelo Esta tendencia de crecimiento sugiere que LLM pueden evolucionar aún más a medida que continuamos empujando los límites de los datos disponibles y los recursos computacionales GPT four supera significativamente a los GPTs 3.5 debido a su mayor número Muestra una comprensión superior de los contextos y matices, ofrece respuestas más precisas y desempeña mejor en las tareas de traducción y resumen Además, GPT four es más capaz de comprender instrucciones complejas sin tener que dividirlas en instrucciones complejas sin tener que pasos más pequeños, mostrando su capacidad superior para adaptarse a escenarios de aprendizaje de tiro cero y pocos disparos Y el cuarto beneficio de los LLM es que al interactuar en lenguaje natural, mejoran la accesibilidad a IA para cualquier persona con una computadora básica, eliminando la necesidad de habilidades técnicas especializadas Si eres un estudiante que busca ayuda con la tarea, un escritor que necesita inspiración o un dueño de un negocio que busca análisis de tendencias del mercado, LLM están aquí para ayudar Sus habilidades de reconocimiento de voz y síntesis de voz humana abren posibilidades para aquellos que podrían tener dificultades para escribir o incluso para individuos que no pueden leer y escribir. Además, sus capacidades de traducción de alta calidad eliminan las barreras del idioma, haciendo que estas poderosas herramientas sean utilizables para personas de diversos grupos demográficos y orígenes Esencialmente, las LLM están transformando la forma en que interactuamos con la tecnología, trayendo habilidades complejas de IA a una amplia gama de usuarios en todo el mundo En conclusión, los modelos de lenguaje grande están rompiendo barreras, haciendo que la IA sea accesible para todos. Con sus capacidades versátiles y su potencial en constante evolución, LLM están revolucionando la forma en que interactuamos con la tecnología interactuamos A medida que miramos hacia el futuro, estamos seguros de que estos modelos continúan mejorando nuestras vidas y trabajando de formas inimaginables En el siguiente video, analizamos un poco más a fondo tres ejemplos de LLM Palm y Lambda de Google y GPT de Open AI. Nos vemos en la siguiente. 12. L3V3: ejemplos de LLM: En este video, observamos algunos ejemplos de modelos de lenguaje de gran tamaño. Entramos en los detalles de tres LLM de última generación, Palm, Lambda y GPT, y también discutiremos algunos otros LLM, que han demostrado ser prometentes en el campo de la IA generativa Entonces comencemos con Palm, que significa modelo de lenguaje de vías. Palm es un modelo de lenguaje de parámetros 540 mil millones desarrollado por Google AI. Está capacitado en un conjunto de datos masivo de textos y código y puede realizar una amplia gama de tareas, incluyendo respuesta a preguntas, inferencia en lenguaje natural, generación de código, traducción y resumen Utiliza el sistema de vías de Google, lo que le permite ser entrenado en un conjunto de datos masivo de texto y código. Con 540 mil millones de parámetros, Palm es uno de los modelos lingüísticos más grandes del mundo. Se trata de un modelo de transformador solo decodificador denso, lo que significa que está diseñado específicamente para tareas de generación de lenguaje natural. Palm puede lograr un rendimiento de pocas tomas de última generación en la mayoría de las tareas, lo que significa que puede aprender a realizar una nueva tarea con solo unos pocos ejemplos. Esto convierte a Palm en una herramienta poderosa para una variedad de aplicaciones. Entonces, ¿qué es el sistema de vías? El sistema Pathway es una arquitectura de IA que se mantiene altamente efectiva mientras genera en diferentes dominios y tareas. Es capaz de entrenar de manera efectiva un solo modelo a través de múltiples TPU V cuatro pods, que son los aceleradores de aprendizaje automático de diseño personalizado de Google aceleradores de aprendizaje automático de diseño Esto permite al sistema Pathway manejar muchas tareas a la vez, reflejar una mejor comprensión del mundo y aprender nuevas tareas rápidamente. Los sistemas Pathway logran esto mediante el uso una serie de técnicas, incluido el paralelismo modelo Esta técnica permite entrenar múltiples modelos sobre los mismos datos simultáneamente. Esto puede mejorar la velocidad de entrenamiento y la eficiencia del sistema de vías. Paralelismo de datos. Esta técnica permite entrenar múltiples copias del mismo modelo en diferentes conjuntos de datos. Esto puede mejorar la precisión del sistema de vías al permitirle aprender de una variedad más amplia de datos y aprendizaje automático. Esta técnica permite que el sistema de vías optimice automáticamente sus parámetros de entrenamiento. Esto puede mejorar el rendimiento del sistema de vías al evitar que se ajuste a los datos de entrenamiento El sistema Pathway aún está en desarrollo, pero tiene el potencial de revolucionar la forma en que construimos e implementamos modelos Al permitir que los modelos orquesten computación distribuida para aceleradores, los sistemas Pathway pueden facilitar la construcción y el entrenamiento grandes modelos de IA complejos que pueden manejar una amplia variedad A continuación, hablemos de otro LLM de Google, Lambda. Lambda significa modelo de lenguaje para aplicaciones de diálogo. Lambda es una familia de modelos de lenguaje neuronal desarrollados por Google AI. Se capacita en diálogo y tiene hasta 130 mil millones de parámetros, pre entrenado en un conjunto de datos de 1.56 billones Lambda tiene tres objetivos clave de calidad, seguridad y fundamento. Estos objetivos se miden por métricas como la sensibilidad, la especificidad, el interés y la informatividad. Lambda está diseñado para ser informativo y completo a la vez que es seguro y conectado a tierra. Es capaz de generar diferentes formatos de texto creativos como poemas, código, guiones, piezas musicales, correo electrónico, letras y mucho más. Intentará todo lo posible para cumplir con todos sus requisitos. Lambda tiene el potencial de revolucionar la forma en que interactuamos con las Se puede utilizar para crear experiencias de diálogo más naturales y atractivas y para proporcionar a los usuarios una asistencia más útil e informativa. Como dijimos antes, hay tres beneficios clave en Lambda. Uno, diálogo natural y atractivo. Lambda puede entablar diálogo natural y atractivo con los humanos. Puede entender el contexto de una conversación, y puede responder de una manera que sea a la vez informativa e interesante. Dos, asistencia servicial e informativa. Lambda puede proporcionar a los usuarios asistencia útil e informativa. Puede responder preguntas, generar formatos de texto creativos y seguir instrucciones. Y tres, seguro y conectado a tierra. Lambda está diseñado para ser seguro y conectado a tierra. Está entrenado en un conjunto de datos masivo de texto y código y es capaz de distinguir entre contenido seguro e inseguro. Y ahora pasemos al GPT de OpenAI, que es la abreviatura de transformador preentrenado generativo GPT es un tipo de modelo de aprendizaje profundo utilizado para generar texto similar al humano Fue desarrollado por OpenAI, una compañía de investigación sin fines de lucro y está financiado por Microsoft GPT utiliza una arquitectura de transformador, que es un tipo de red neuronal que es muy adecuada para las tareas de procesamiento del lenguaje natural Los parámetros para la última versión de GPT, que es GPT cuatro no se revelan, pero probablemente sea mucho mayor que GPT 3.575 mil millones GPT Esto significa que GPT cuatro tiene una mayor capacidad para aprender y entender el idioma GPT four también ha demostrado ser competente en evaluaciones de habilidades como el examen de la barra En un estudio reciente, GPT cuatro puntuó en el percentil 90 en el examen de la barra, que es una prueba estandarizada que se requiere para ingresar al colegio de abogados en muchas jurisdicciones GPT es una poderosa herramienta que se puede utilizar para una variedad de tareas, incluyendo generar texto, responder preguntas, traducir idiomas y mucho más Además de lo que discutimos hasta ahora, hay otros LLM que están transformando la forma en que miramos la IA y están ayudando a dar forma al futuro del campo Repasemos brevemente algunas de ellas. El primero es recorrer NLG de Microsoft, un modelo de lenguaje a mayor escala entrenado en diversos textos de Internet que es capaz de escribir párrafos coherentes e incluso artículos enteros Burt by Google, un revolucionario modelo basado en transformadores que está pre entrenado en un gran corpus de textos y afinado para diversas tareas de procesamiento del lenguaje natural, proporcionando un alto nivel de comprensión del contexto y significados semánticos Transformer XL, un modelo de lenguaje desarrollado por equipo cerebral de Google que maneja de manera innovadora dependencias a largo plazo en secuencias, mejorando significativamente el desempeño de tareas como la generación de texto y También está Excel Net, que es una extensión del transformador xl, desarrollado por Google Brain y Carnegie Melon University Utiliza un método de entrenamiento basado en permutaciones para superar algunas limitaciones del BIRT y superarlo en varios puntos Electra es un enfoque de pre-entrenamiento altamente eficiente desarrollado por Google Research que utiliza menos potencia de cómputo para rendimiento similar o incluso mejor que modelos como BRT Contamos con transformador Megatron, un modelo basado en transformador desarrollado por Nvidia, diseñado para entrenar modelos de lenguaje muy grandes con miles de millones de parámetros Aprovecha las capacidades de procesamiento paralelo de las GPU modernas Y tenemos ama introducido por meta, Lama es un modelo de lenguaje fundamental, más pequeño pero performante grande Está diseñado para ampliar el acceso a la investigación de IA, requiriendo menos potencia computacional y recursos para probar nuevos enfoques y validar Lama también puede estar disponible en diferentes tamaños, rango de 7000000000-65 Entonces en este video, nos sumergimos en los emocionantes avances en modelos de lenguaje grande, centrándonos en Palm y Lambda de Google AI, así como en GPT de OpenAI También destacamos otros modelos notables en el campo, como touring Energy, BRT, XLnT y mega tron Discutimos cómo estos LLM con parámetros que pueden llegar a cientos de miles de millones redefinen el aprendizaje multitarea y revolucionan nuestra interacción Estos modelos ya han demostrado sus habilidades excepcionales en tareas como la generación de texto e incluso evaluaciones prácticas como el examen de barra, y solo siguen mejorando. 13. L3V4: modelos de base: En este video, aprenderás sobre los modelos de cimentación, que como su nombre indica, proporcionan una base para los modelos generativos de IA Específicamente, comenzamos por brindar una definición para los modelos de cimentación y explicando cuáles son. Luego hablaremos sobre plataformas que brindan diferentes tipos de modelos de cimentación con un enfoque en el jardín modelo de Vertex AI y terminaremos el video discutiendo diferentes tipos de modelos de cimentación Ahora bien, ¿qué son los modelos de cimentación? Pidamos a Bart que nos ayude a responder la pregunta. Proporciona tres borradores diferentes. Los modelos de base son grandes redes neuronales preentrenadas que se pueden afinar para una variedad de tareas como el procesamiento del lenguaje natural, visión por computadora y el reconocimiento de voz. Los modelos básicos son modelos de lenguaje grandes entrenados en conjuntos de datos masivos que se pueden ajustar para una variedad de tareas posteriores, como la traducción, respuesta a preguntas y el resumen Los modelos básicos son grandes modelos de aprendizaje automático preentrenados que se pueden adaptar a una amplia gama de tareas como el procesamiento del lenguaje natural, visión por computadora y la robótica Por lo que los modelos de base son modelos de IA grandes que se pueden adaptar a una amplia gama de tareas y pueden generar resultados de alta calidad. Aunque los modelos de IA no son nuevos para nosotros, hay algo bastante diferente estos modelos básicos. Vienen equipados con varias características clave que los distinguen, marcando un cambio significativo con respecto a los modelos de IA que hemos visto en generaciones anteriores. Los modelos de cimentación no se limitan a una sola tarea. Son multitarea. Un solo modelo de base puede abordar una amplia gama de tareas desde el primer momento, como el resumen, la respuesta a preguntas o la clasificación Pueden manejar diversas modalidades de tipos de datos, incluyendo imágenes, texto, código y mucho más. Con un entrenamiento mínimo o nulo, los modelos de cimentación pueden funcionar bien fuera de la caja. También se pueden adaptar para casos de uso específicos usando solo un puñado de datos de ejemplo. Debido a que normalmente se capacitan en grandes cantidades de datos diversos, estos modelos pueden aprender patrones y representaciones generales, que luego se pueden aplicar en varios dominios y tareas. Antes de ahora, los modelos de cimentación eran de difícil acceso. Se requieren habilidades especializadas de aprendizaje automático y recursos de cómputos para usar en producción. Pero con la reciente ola de avances en IA generativa, las cosas están cambiando drásticamente Por ejemplo, tomemos Vertex AI, una plataforma de aprendizaje automático completamente administrada disponible en Google Cloud Si ya estás familiarizado con las herramientas de Google Cloud, ya sabes que Vertex AI te permite acceder, crear, experimentar, implementar y administrar diferentes modelos de aprendizaje automático Cosas como la ciencia de datos tradicional, el aprendizaje automático, los MLP o simplemente crear una aplicación impulsada por IA Vertex AI está equipado para soportar todas esas cargas de trabajo. Eso es genial y todo, pero aquí es donde las cosas empiezan a ponerse realmente interesantes. Recientemente, Google Cloud anunció dos herramientas importantes que nos permiten hacer aún más jardín de modelos y estudio generativo de IA Estas herramientas hacen que los modelos de base estén disponibles para un público mucho más amplio, incluso sin mucha experiencia codificación y desarrollo de ML. La última sección de este curso está dedicada a introducir las herramientas Google Cloud Gen AI, y hablaremos más sobre estudio generativo de IA en esa sección Entonces, en este video, centrémonos sólo en el modelo de jardín. ¿Qué es exactamente donde está el XAI Model Garden? Es un lugar único para explorar e interactuar con los modelos líderes de la industria de Google, así como con los modelos populares de código abierto, o con el soporte empresarial EmlopStoling de Google Cloud empresarial EmlopStoling Alberga tanto modelos tradicionales de aprendizaje automático como modelos fundamentales para aplicaciones generativas de IA Dentro de Model Garden, encontrarás una variedad de modelos de Google Cloud, Google Research y varias fuentes externas, adaptan a una variedad de formatos de datos. Entonces así es como se ve dentro del Model Garden de Vertex AI Con muchos modelos listos para empresas diferentes a su disposición, Model Garden le permite seleccionar el modelo más adecuado, dependiendo de su caso de uso, su experiencia en ML y su presupuesto disponible. Tenga en cuenta que estamos utilizando Model Garden de Vertex AI como ejemplo de una plataforma que Google Cloud proporciona para diferentes IA generativa y otras herramientas y API de aprendizaje automático Hay otras empresas que tienen sus propias versiones de Model Garden también. Por ejemplo, Amazon Sagemaker, asistente de IBM Watson, y Vida Clara, Data IKAI, Open AI chat GPT API, Microsoft Azores Machine Learning, Data Robot AI y Databricks LakehousePlatform, proporcionan herramientas y API tanto para modelos tradicionales de aprendizaje automático como para tanto para modelos tradicionales de aprendizaje automático como asistente de IBM Watson, y Vida Clara, Data IKAI, Open AI chat GPT API, Microsoft Azores Machine Learning, Data Robot AI y Databricks LakehousePlatform, proporcionan herramientas y API tanto para modelos tradicionales de aprendizaje automático como para modelos de base de IA generativa. Existen diferentes tipos de modelos de bases, incluyendo generación y resumen de texto, chat y diálogo, generación y finalización de código, generación y modificación de imágenes e incrustaciones Ahora, echemos una mirada más profunda a cada una de ellas. Modelos de texto. Estos modelos te ayudan a realizar tareas de lenguaje natural con cero o pocos disparos. Pueden hacer tareas como resumen, extracción de entidades e información, generación de ideas y mucho más Por ejemplo, un periodista podría utilizar modelos de texto para resumir artículos grandes o reportajes Un investigador académico podría extraer entidades específicas de información de un corpus masivo de artículos, o en una sesión de lluvia de ideas, un emprendedor podría utilizar el modelo para generar nuevas ideas o perspectivas Como se mencionó anteriormente, estos modelos funcionan de manera efectiva desde el primer momento. No obstante, si deseas que el modelo siga ciertas especificaciones, puedes proporcionar ejemplos estructurados para guiar sus respuestas. Esto permite una experiencia personalizada que se alinea con sus necesidades y objetivos específicos A continuación, centrémonos en el diálogo. Estos modelos también están basados en texto, pero han sido afinados para mantener una conversación natural. Los modelos de diálogo le permiten participar en conversaciones de múltiples turnos, manteniendo el contexto a lo largo de la interacción. Considere un escenario en un centro de atención al cliente, un chatbot de IA impulsado por estos modelos de diálogo puede ayudar a los clientes a recordar el giro anterior de la conversación y proporcionar respuestas conscientes del contexto Puede responder preguntas, resumir información o incluso guiar a los usuarios a través de procedimientos complejos, o mientras se ajusta a su dominio específico Estos modelos pueden ayudarle a crear herramientas poderosas que mejoran enormemente la experiencia del usuario, ya sea implementadas en un navegador, una aplicación móvil u otras interfaces digitales. Pasando a la finalización y generación del código. Estos modelos actúan como su asistente de codificación sobrealimentado. Puedes dar un baile de graduación en lenguaje natural para describir una pieza de código que quieras escribir, o puedes usar el modelo para completar automáticamente una pieza de código. Incluso hay extensiones para IDE que pueden tomar un fragmento de código parcial como entrada y luego proporcionar la continuación probable Imagina que estás trabajando en un proyecto de software complejo. Puede ayudar a eliminar los tediosos aspectos de la codificación, incluso proporcionar ayuda con la depuración de su código, lo que le permite, como desarrollador, centrarse más en la resolución creativa de problemas y menos en la sintaxis o Y ahora vamos a sumergirnos en la generación de imágenes. Estos modelos le permiten generar y editar imágenes de acuerdo a sus especificaciones. Además, puede utilizar estos modelos para tareas relacionadas con los medios, como clasificación, detección de objetos y más. Además, estos modelos suelen incorporar mecanismos de moderación de contenido para garantizar prácticas de seguridad de IA responsables Imagina que estás construyendo una plataforma de comercio electrónico. Un modelo para la detección de objetos puede etiquetar automáticamente los artículos en las imágenes del producto, mientras que un modelo de generación de imágenes puede crear nuevas imágenes de productos basadas en descripciones. La función de moderación de contenido garantizaría que todo el contenido generado por el usuario se alinee con la política de su plataforma, mejorando la experiencia del usuario, por último pero definitivamente no menos importante Hablemos de incrustaciones, que pueden sonar un poco complejas, pero en realidad es un concepto realmente genial Entonces déjame explicártelo. Imagina que tienes una enorme canasta de frutas y quieres resolverlas. Podrías ordenarlos por color, tamaño, peso o incluso sabor. De igual manera, en el mundo de los datos, muchas veces necesitamos ordenar o categorizar las cosas Pero las cosas a las que nos enfrentamos son palabras o frases, no frutos. Ahí es donde entran las incrustaciones. Son como una tarjeta de identificación única para cada palabra o frase, pero en lugar de una tarjeta, es una lista de números, que llamamos vector. Esta lista de números captura la esencia de esa palabra o frase. Es significado es contexto y sus relaciones con otras palabras. Con las incrustaciones, podemos dar sentido a los datos no estructurados, como un libro largo o un feed de Twitter y usar este entendimiento para hacer cosas como alimentar motores de recomendación o orientar anuncios de manera más efectiva Por ejemplo, consideremos el ámbito del comercio electrónico. Un modelo de incrustación se puede utilizar para impulsar motores de recomendación, haciendo coincidir a los usuarios con los productos que más probablemente les interesen en función de su historial de navegación O en marketing digital, estos modelos pueden mejorar los sistemas de segmentación de anuncios, permitiendo una publicidad altamente personalizada. También se pueden usar para tareas complejas de clasificación, funcionalidad de búsqueda y muchas otras aplicaciones. Entonces, en conclusión, los modelos fundacionales representan un avance significativo en la tecnología de IA. Ofrecen una potente base adaptable que se puede utilizar para una amplia gama de tareas desde el primer momento. Con plataformas como Model Garden de Vertex AI, estas herramientas son más accesibles que nunca, poniendo capacidades avanzadas de IA en manos de una población mucho más amplia de usuarios Desde tareas de lenguaje natural hasta diálogo multigiro, implementación de código, generación y modificación de imágenes y extracción de información semántica, las aplicaciones potenciales de estos modelos son vastas Ya sea mejorando el servicio al cliente con chatbots de IA, ayudando a los desarrolladores con código generado automáticamente o impulsando motores de recomendación, los modelos básicos están dando forma al futuro de la IA Con los modelos fundacionales y el poder de la IA generativa, no solo estamos prediciendo el futuro Lo estamos construyendo. En el siguiente video, vemos algunas de las increíbles aplicaciones que ofrecen diferentes tipos de modelos generativos de IA 14. L3V5: desarrollo de LLM: Hablemos de cómo se desarrollan los modelos de lenguaje de gran tamaño. En este video, comenzamos por ofrecer una comparación entre el desarrollo de LLM y el desarrollo aprendizaje automático tradicional Luego hablaremos sobre tres tipos principales de LLM, y al final, discutiremos un concepto llamado razonamiento de cadena de pensamiento y cómo eso puede ayudar a diseñar mejores indicaciones para Comencemos comparando el desarrollo de LLM usando modelos preexistentes con el enfoque tradicional del desarrollo de aprendizaje automático En el mundo LLM, no hay requisito previo para la experiencia técnica o extensos ejemplos de capacitación, ¿y adivina qué? También puedes olvidarte del entrenamiento de modelos. Se trata del arte del diseño rápido, claro, conciso y lleno de información útil. Por otro lado, el aprendizaje automático tradicional requiere que te arremangues y profundices en ejemplos de entrenamiento, entrenamiento de modelos e incluso a veces necesitando un conocimiento básico de hardware y potencia informática. Hay tres tipos principales de LLM, genéricos, instrucción sintonizada y diálogo sintonizado Cada uno de estos modelos requiere su estilo único de incitación. Los modelos genéricos de lenguaje funcionan como el autocompletado de tus teléfonos, predicen la siguiente palabra en función de los patrones lingüísticos de los datos de entrenamiento Los modelos sintonizados por instrucción, por otro lado, responden a directivas específicas, ya sea resumiendo un texto, generando un poema al estilo de un poeta famoso, u ofreciendo un análisis de sentimiento de una declaración Estos modelos siguen las instrucciones incrustadas en la entrada. Por último, tenemos modelos sintonizados con diálogo. Estos son un subconjunto de modelos sintonizados por instrucción diseñados específicamente para el contexto interactivo, igual que un chat con un bot. Entonces, profundicemos en ejemplos de estos tres tipos y los veamos en acción. Antes de saltar a ejemplos de diferentes tipos de LLM, proporcionemos una definición para los tokens Un token es una unidad de datos que procesa el modelo. Puede ser una palabra o parte de una palabra. Comenzaremos con los modelos genéricos de lenguaje. Son bastante directos. Su tarea principal es predecir la palabra posterior a partir del contexto proporcionado por los datos de entrenamiento. Tomemos un ejemplo sencillo. El gato se sentó y ahora queremos saber cuál la siguiente palabra más probable es el modelo nos dice la es esa respuesta. Al igual que lo sugerirían las funciones de autocompletado de tus teléfonos sugerirían las funciones de autocompletado Es una visión fascinante de cómo la IA puede imitar la forma en que nos comunicamos naturalmente Pasando a los modelos sintonizados por instrucción, estos modelos brillan a la hora de generar respuestas. Toman su ejemplo de las instrucciones dadas en la entrada, ya sea una solicitud para resumir un texto, generar un poema en un estilo particular, o incluso clasificar un sentimiento de texto Es como tener tu propio asistente digital, siempre en espera para llevar a cabo tus instrucciones con precisión. Y por último, tenemos modelos sintonizados dialectos, que son un tipo especializado de modelos sintonizados por instrucción Sin embargo, no solo están esperando instrucciones. Están entrenados para entablar una conversación de ida y vuelta. lo general, podrías encontrarlos en forma de chatbots Si alguna vez le has hecho una pregunta a un asistente virtual, es probable que hayas interactuado con este tipo de modelo Se trata de permitir una interacción conversacional natural Ahora es el momento de explorar un concepto interesante, la cadena del razonamiento del pensamiento. Esta es una observación de que los modelos son más precisos en la producción respuestas correctas cuando generan por primera vez una vía de razonamiento o cadena que conduce a la respuesta. Consideremos un ejemplo sencillo. Roger tiene cinco pelotas de tenis y compra dos latas más, cada una con tres bolas ¿Cuántas bolas tiene ahora Roger? Inicialmente, el modelo podría tener dificultades para dar la respuesta correcta. Sin embargo, después de presentar el problema por segunda vez, el modelo es más probable que concluya con la respuesta correcta. El razonamiento de la cadena de pensamiento ayuda a mejorar la comprensión y las capacidades de respuesta de los modelos de lenguaje grande. En conclusión, el desarrollo e implementación de grandes modelos de lenguaje abren nuevas y emocionantes vías en el mundo del aprendizaje automático A medida que continuamos mejorando y refinando estas tecnologías, anticipamos un futuro en el que comprensión avanzada del lenguaje por parte IA cambie drásticamente nuestra interacción con las plataformas digitales Ahora que entendemos cómo se desarrollan las LLM, es el momento de ver por qué es importante sintonizarlas para tareas específicas y cómo podemos sintonizar las LLM de una manera eficiente Nos vemos en el siguiente video. 15. L3V6: LLM de ajuste: En este video, hablaremos sobre la importancia de afinar LLM para tareas específicas y cómo hacerlo de manera eficiente Es un pensamiento interesante tener un modelo que pueda manejar todo. Pero en la práctica, los LLM vienen con su parte justa de limitaciones Para aumentar su confiabilidad y eficiencia, LLM necesitan ser ajustados para tareas específicas y en el conocimiento de dominio específico Al igual que un atleta profesional especializado en su deporte, estos modelos necesitan refinar sus habilidades para dominar su rendimiento. Empecemos con un ejemplo de tarea simple. Contestador de preguntas. Este es un subdominio del procesamiento del lenguaje natural que se trata de responder automáticamente a las preguntas planteadas en el lenguaje cotidiano Estos sistemas de preguntas y respuestas son potencias capaces de abordar una variedad de preguntas, desde fácticas hasta basadas en opiniones gracias a su amplia capacitación en Sin embargo, el ingrediente secreto para éxito de este modelo es el conocimiento del dominio. Considera esto. desarrolla un modelo de control de calidad para atención al cliente, atención médica o cadena de suministro, conocimiento del dominio se convierte en un requisito crítico. En atención al cliente, un LLM sintonizado con dominio podría proporcionar información detallada sobre suscripciones y servicios, asegurando que sus clientes reciban eficiente asistido por IA En el ámbito de la educación, estos modelos pueden ofrecer información detallada sobre cursos, tasas de matrícula o políticas académicas. Para la atención médica, podrían servir como herramientas de autogestión para los pacientes, proporcionando información crítica relacionada con la salud. negocios minoristas podrían beneficiarse de mejores chatbots de IA y visualización de productos, elevando la experiencia del cliente Y en el ámbito de la gestión de la cadena de suministro, LLM podrían ofrecer valiosa información logística e información sobre el inventario Y no nos olvidemos de las grandes empresas tecnológicas. Podrían usar estos modelos para brindar soporte técnico superior a los clientes. Cada sector tiene sus propios requisitos únicos, y ajustar un LLM, acuerdo con estas especificaciones, puede mejorar drásticamente la efectividad del modelo Mientras que los modelos generativos de preguntas y respuestas pueden usar su base de conocimientos de entrenamiento para responder preguntas sin necesidad de conocimientos específicos del dominio, Fne afinando estos modelos en conocimiento específico del dominio aumenta significativamente su precisión Es como proporcionar al modelo un mapa detallado del terreno por el que se supone que debe navegar. Toma Vertex AI como ejemplo. Proporciona modelos de bases específicas para tareas que ya están ajustados para una variedad de casos de uso. Digamos que quieres entender sentimientos de tus clientes hacia mejor los sentimientos de tus clientes hacia tu producto o servicios Vertex AI tiene un modelo de tareas de análisis de sentimientos que es el adecuado para el Quizás estés en el sector minorista o inmobiliario, y necesitas realizar análisis de ocupación. También hay un modelo específico de tarea diseñado para eso. Estos modelos perfeccionados para tareas específicas, demuestran el valor de la afinación Son más eficientes, dirigidos y efectivos en sus respectivos trabajos. La capacidad de seleccionar y utilizar un modelo que se alinee con sus necesidades específicas puede mejorar drásticamente la efectividad general de sus soluciones de IA Bien, ahora es el momento de definir formalmente a qué nos referimos con afinación. La afinación se refiere al proceso de adaptar un modelo pre entrenado a una tarea más específica como un conjunto de casos de uso personalizados o nuevo dominio entrenándolo sobre nuevos datos. La afinación se logra entrenando el modelo sobre nuevos datos que son relevantes para la tarea en cuestión. Por ejemplo, si estamos trabajando dentro del sector legal o médico, recopilaríamos datos de capacitación de estos dominios para afinar nuestro modelo en consecuencia. Pero, ¿qué es la afinación fina? Piense en la afinación fina como un ajuste de alta precisión para el modelo. Traes tu propio conjunto de datos y vuelve a entrenar el modelo, afectando cada peso en el LLM Puede ser un trabajo intensivo en mano de obra y recursos y requiere alojar su propio modelo de ajuste fino. Y eso puede hacer que sea poco práctico para muchos casos de uso. Pero es importante saber que un modelo de afinación fina está equipado con un alto nivel de precisión y especificidad. Tomemos un ejemplo del mundo real para ilustrar el poder de la afinación fina. Imagínese un modelo de fundación de atención médica que ha sido ampliamente capacitado en una amplia gama de datos de atención médica. Puede realizar diversas tareas sin problemas, respondiendo preguntas médicas, analizando imágenes médicas, encontrando pacientes con afecciones similares y mucho más. La razón detrás de este éxito es afinación con el conocimiento específico del dominio. Al hacerlo, se convierte en especialista en lugar de generalista, entregando resultados precisos y confiables dentro del contexto de la atención médica Este proceso subraya el inmenso potencial y versatilidad de la afinación, transformando un modelo de talla única en una herramienta altamente especializada para navegar por escenarios de atención médica complejos La afinación fina es una excelente manera impulsar el rendimiento de un modelo, pero similar a renovar toda una casa, puede ser costosa y no siempre práctica Entonces, si buscamos una manera más eficiente afinar modelos de lenguaje grande, ¿qué podemos hacer? Un enfoque a seguir son métodos de ajuste eficientes de parámetros o PETM para abreviar Piense en PETM como darle a su modelo un cambio de imagen en lugar de una renovación completa Normalmente, con la afinación fina, ajustamos todos los parámetros del modelo, lo cual es complicado y consume mucho tiempo. Pero con PETM, nos enfocamos en cambiar solo un pequeño subconjunto de estos parámetros o incluso agregar algunos nuevos. A lo mejor agregamos algunas capas adicionales al modelo o agregamos una información extra. Descubrir la mejor manera de hacerlo sigue siendo un tema candente entre los investigadores La clave para llevar aquí es que PETM es como un atajo. Nos ayuda a evitar la necesidad de volver a entrenar todo el modelo, ahorrándonos tiempo, esfuerzo y recursos Además, incluso simplifica el proceso de usar estos modelos más adelante, ya que solo usamos el modelo base y agregamos nuestros bits adicionales Ahora hemos llegado a la conclusión de nuestra exploración en el mundo de los grandes modelos lingüísticos. A partir de esta sección, hemos obtenido valiosos conocimientos sobre las LLM, comenzando con una introducción a su estructura y función Discutimos los numerosos beneficios de usar LLM y proporcionamos algunos ejemplos para ellos, incluyendo Palm, Lambda y GPT También hablamos sobre el proceso de desarrollo de LLM, destacando en qué se diferencia del desarrollo de aprendizaje automático tradicional Y lo más importante, subrayamos la importancia de afinar LLM Sumérgete en las formas en que mejora su confiabilidad y precisión. Hemos visto cómo el conocimiento específico del dominio puede mejorar significativamente su rendimiento y aprender sobre ajuste eficientes como los métodos ajuste eficientes de parámetros. En la siguiente sección, nos familiarizaremos con cuatro herramientas principales en Google Cloud que nos permiten acceder y afinar modelos generativos de IA y construir nuestras propias aplicaciones generativas 16. L4V1: hoja de aplicaciones: Hablemos de apshet una innovadora plataforma sin código de Google que está aprovechando el poder de la IA generativa para transformar el desarrollo de aplicaciones a nivel global Imagine un mundo en el que cualquiera, independientemente de sus habilidades de codificación, pueda crear rápidamente aplicaciones centradas en datos para el espacio de trabajo de Google. Eso es exactamente lo que apsheet está diseñado para hacer. Recuerde el tedioso proceso del desarrollo tradicional de aplicaciones, desde la conceptualización hasta la redacción de especificaciones del proyecto, y desde la colaboración en equipo hasta la codificación, fue un viaje largo y exhaustivo Pero con apsheet el ciclo de vida del desarrollo de aplicaciones se ha simplificado drásticamente Lo que solía llevar meses ahora se puede lograr en días o incluso horas, liberando su tiempo para tareas más valiosas La belleza de Apshet es su versatilidad. Le permite crear aplicaciones para múltiples plataformas, incluidas aplicaciones de escritorio, móviles y chat. Apsheet proporciona una variedad de aplicaciones que son tan variadas como sus necesidades específicas Puede ser que esté administrando un almacén y necesite una solución optimizada para el seguimiento de inventario. Quizás esté organizando un evento corporativo importante y necesite una herramienta de planificación de eventos detallada, o tal vez esté ejecutando una campaña de marketing multifacética masiva y necesite una aplicación para coordinar las muchas partes móviles Desde la gestión de relaciones con los clientes hasta la coordinación de la cadena de suministro, programación de empleados hasta la gestión de proyectos. Apsheet es lo suficientemente adaptable para manejar sus necesidades específicas. Su flexibilidad y versatilidad abren las puertas a innumerables escenarios, convirtiéndola en una plataforma de acceso para desarrollar aplicaciones centradas en datos personalizadas. Siempre y cuando tengas una idea clara de lo que necesitas y puedas explicarlo en lenguaje natural, apsheet puede ayudarte a convertir esa idea en una aplicación Así que vamos a bucear más profundo. Recientemente, Apshet introdujo nuevas capacidades todas impulsadas por IA generativa Ahora, puedes convertir tu idea en una app completamente funcional en cuestión de minutos, y puedes hacerlo usando lenguaje natural. Por ejemplo, quieres crear una app para el seguimiento de los gastos de viaje. Todo lo que necesitas hacer es describir tu proceso para apset. Aphet luego se hace cargo de hacer preguntas de seguimiento para comprender mejor los requisitos de su aplicación Una vez que Apsheet ha recopilado suficiente información, presenta una vista previa de las tablas para su aplicación e incluso proporciona datos de muestra para ayudarlo a probarlo Entonces Upseet procede a crear la aplicación de inicio para ti. Tan pronto como la app esté lista, podrás iniciarla, probarla y hacer los ajustes necesarios. Curiosamente, puedes continuar usando lenguaje natural para especificar los cambios que deseas, y apsheet te ayudará a refinar tu aplicación Crear una app a través del lenguaje natural con cero codificación, esa es la magia de apsheet Permite a cualquier persona desarrollar aplicaciones para su organización de manera rápida y eficiente Entonces veamos cómo Apsheet aprovecha la IA generativa para que esto sea posible Cuando el usuario interactúa con apheet, Dialogflow y la IA generativa, ayudados por un LLM capacitado a medida, trabajan juntos para proporcionar la información necesaria para crear la aplicación la información necesaria para crear la flujo dialecto recopila información esencial sobre el problema comercial del usuario que Apsheet utilizará para construir una Apsheet intenta que esta aplicación se alinee lo más posible con la solución ideal del usuario Después de que Direct flow haya recopilado la información requerida, Apsheet envía una solicitud al LLM para ayudar a generar el modelo de datos y las vistas necesarias para la aplicación Cuando el LLM proporciona el esquema correcto, apsheet utiliza toda la información recopilada para crear una aplicación inicial en solo unos minutos La aplicación entregada incluye una base de datos completa, una interfaz de aplicación intuitiva y cualquier configuración específica que se expresó durante la interacción, como las preferencias de notificación. Una vez que la aplicación de inicio esté lista, los usuarios pueden seguir colaborando con Apsheet para afinar y mejorar aún más la aplicación Dependiendo de la complejidad de la solicitud, apsheet puede utilizar tanto Dialogflow como LLM durante La combinación de Dialect flow y LLM mejora las capacidades de Apheet, lo que le permite manejar incluso las solicitudes de desarrollo de aplicaciones más complejas Incluso puedes personalizar estas dos tecnologías. Para el flujo dialecto, puedes personalizarlo para ayudarte a crear interfaces de chat conversacionales Así es como lo haces. Primero, se crea un agente de flujo dialecto. Luego defina su intención y entidades personalizadas. Una vez hecho esto, la API de flujo dialecto está ahí para ayudarte a integrar este agente en tu aplicación En esencia, estás adaptando una pieza de tecnología sofisticada a tus necesidades específicas Para el LLM, puede diseñar un modelo para satisfacer las demandas únicas de su aplicación con el AI Studio generativo de Vertex AI Esta plataforma presenta una gama de modelos fundamentales de Google Cloud que puedes refinar de acuerdo a tus necesidades Esto se puede lograr formulando y ajustando las indicaciones según sea necesario y perfeccionando los modelos utilizando sus propios Entonces, en conclusión, al beneficiarse de las tecnologías generativas de IA, específicamente el flujo Dialect de Google y un LLM entrenado a medida, Appset permite a cualquier individuo desarrollar aplicaciones impulsadas por datos sin experiencia en codificación y en Se ha convertido en una poderosa plataforma que permite a los usuarios generar diferentes aplicaciones usando lenguaje natural. Y con eso concluye esta sección sobre cuatro potentes herramientas generativas de IA disponibles en Google Cloud En la siguiente y última sección de este curso, intentaremos utilizar estas herramientas para construir nuestra propia aplicación utilizando el poder de la IA generativa 17. L4V2: creador de aplicaciones de generación: El creador de aplicaciones Jen disponible a través de Vertex AI de Google Cloud combina magistralmente los modelos básicos con la fuerza de la búsqueda y la IA conversacional, permite a una nueva gama de usuarios crear aplicaciones innovadoras de IA generativa en poco tiempo y sin necesidad de habilidades de codificación La naturaleza humana y atractiva de las interacciones en línea presenta una oportunidad para que los usuarios mejoren sus conexiones con su audiencia potencial. Para las empresas, esto significa una mejor comunicación con clientes, empleados y socios. Con Jen App Builder, creación de estas potentes aplicaciones GN AI no requiere ninguna codificación en absoluto. Piensa en crear tu asistente digital personalizado, motores de búsqueda personalizados, bases de conocimiento, aplicaciones educativas y mucho más Con Jen App Builder, tienes el poder de dar vida a esas visiones. El Jen App Builder cuenta con una interfaz de caída de dragón fácil de usar, lo que hace que el proceso de diseño y desarrollo de aplicaciones sea mucho más fluido. Cuenta con un editor visual que te permite crear y modificar fácilmente el contenido de tu app. El motor de búsqueda incorporado permite los usuarios encontrar información dentro de la aplicación, mientras que el motor de IA conversacional permite interacciones en lenguaje natural Por lo que Jen App Builder brinda la flexibilidad para crear una experiencia de búsqueda empresarial, una experiencia de conversación o chat, o incluso ambas. El proceso es sencillo. Empiezas construyendo una fuente de contenido, que podría ser un documento de Word o una hoja de cálculo que contenga información sobre tu negocio A continuación, selecciona las funciones que te gustaría incorporar a tu app. Esto podría ser búsqueda, chat, o ambos. Y una vez que hayas terminado, simplemente presiona Crear. Pero espera, hay más. Esta app también te permite controlar y personalizar las respuestas generadas o crear respuestas predeterminadas. Si eso no es suficiente, siempre puede acceder al control granular sobre las respuestas con opciones para controlar el tipo de respuesta, establecer términos prohibidos y deshabilitar las respuestas generadas cuando sea necesario. Pero no te preocupes. Incluso con las respuestas generadas deshabilitadas, tu aplicación GaiPowered aún puede responder preguntas complejas gracias a la tecnología de búsqueda de Google Jen App Builder también tiene la capacidad de completar transacciones en nombre del usuario. Con la integración de flujos preestructurados para casos de uso comunes como verificar estado de los pedidos o explicar facturas, puedes agregar sin esfuerzo estas funciones a tu app con un solo clic, pero no se limita a proporcionar funcionalidades predefinidas Le permite crear su flujo de transacciones único con la ayuda de una interfaz simple basada en gráficos para delinear la lógica de negocios de alto nivel. Si lo prefieres, incluso puedes hacer uso de la creación de flujo basada en prontas para explicar tu lógica usando un lenguaje natural sencillo. Una vez que esté satisfecho con las configuraciones de su aplicación, estará lista para probar. Y si todo se ve bien, Jen App Builders en integraciones integradas facilita un lanzamiento sin problemas de su aplicación en su sitio web o plataformas de mensajería populares También ofrece conectividad con socios de telefonía. Para implementar tu nueva app, solo necesitas obtener el widget Código de implementación. Es tan sencillo como eso. Entonces puedes ver que Jen App Builder te permite publicar fácilmente tu conversación o searchbt un sitio web o conectarte a aplicaciones de mensajería populares Jen App Builder aprovecha el poder de la IA, lo que le permite crear chatbots que pueden manejar tareas como responder preguntas específicas del dominio, procesar entradas multimedia y entregar respuestas multimodales Estos bots de chat pueden guiar a los usuarios hacia contenido relevante y entregar respuestas generativas de IA incluso sin conocimientos específicos del dominio Y pueden completar transacciones, resumir información usando IA y tener la flexibilidad de pausar y reanudar las conversaciones cuando sea necesario Con Jen Abilder, estás creando asistencia digital que redefine estándares de las interacciones en En conclusión, Jen Abuilder es donde se unen las fortalezas de los modelos básicos actuales de Google, búsqueda empresarial y la IA conversacional Le permite crear sin esfuerzo aplicaciones avanzadas que redefinen interfaz fácil de usar y un editor visualmente atractivo allanan el camino para la creación y modificación del contenido de la aplicación con el mínimo esfuerzo Con capacidades que van desde motores de búsqueda integrados hasta un motor de IA conversacional y una interfaz intuitiva y fácil de usar, Jen App Builder ofrece un amplio kit de herramientas para crear aplicaciones dinámicas receptivas Puedes construir chatbots capaces de entradas multimedia, respuestas multimodales y preguntas específicas de dominio Y con la capacidad de completar transacciones y pausar y reanudar conversaciones, estos chatbots son más que simples bots ordinarios Están diseñados para manejar las tareas e interacciones más complejas, todo a la vez que son fáciles de publicar y conectarse a su sitio web o aplicaciones de mensajería populares. Ahora pasemos al siguiente interesante App Builder disponible en la hoja de aplicaciones de Google Cloud. 18. L4V3: Maker Suite: Maker SID es una herramienta intuitiva basada en navegador diseñada para permitir la creación de prototipos rápida y fácil con Palm para modelar La integración de Maker SUID con Palm API significa que ahora podemos acceder a la API a través de una interfaz gráfica fácil La API de Palm es una puerta de entrada a los modelos de lenguaje grande de Google y a las herramientas generativas de IA, lo que facilita la creación de prototipos eficientes y accesibles en el tiempo Esta plataforma le permite probar modelos rápidamente y experimentar con diferentes indicaciones. Puede usarlo para crear y afinar sus indicaciones, agregar datos sintéticos a su conjunto de datos personalizado, generar incrustaciones de vanguardia y ajustar sus modelos personalizados con facilidad Y si se te ocurre algo con lo que estés contento, haz que tu Suite te ofrezca la capacidad de convertirlo en código Python, haciendo posible llamar al modelo usando la API de Palm. Palm API y Maker Suite son el dúo perfecto para el desarrollo generativo de IA Palm API es tu punto de partida para acceder a las LLM de Google, dando a los desarrolladores la libertad de usar modelos optimizados para diversas tareas Por otro lado, Maker Suite proporciona una interfaz intuitiva para comenzar a prototipos y crear tus aplicaciones únicas Ahora, echemos un vistazo al interior de Maker Suite y veamos cómo podemos comenzar a crear prototipos con modelos de lenguaje grande en solo minutos Entonces así es como se ve dentro de Maker Suite. Echemos un vistazo a este menú de la izquierda. Aquí, podemos crear nuevas indicaciones. Como podemos ver, hay tres tipos diferentes de indicaciones que podemos crear mensajes de texto, indicaciones datos y mensajes de chat También tenemos acceso a nuestra biblioteca, que es la página actual que está abierta en este momento. Si vas a obtener ApiKey, podemos verlo aquí, tenemos la opción de crear una clave API para un nuevo proyecto Y también hay otros enlaces rápidos disponibles. Hay una guía para comenzar. Hay una galería rápida que te ayuda a explorar diferentes tipos de indicaciones. Hay documentación de API y algo más de información sobre política de privacidad y términos de servicio. Ahora volvamos a nuestra biblioteca y probemos diferentes indicaciones. El primero es prompt de texto. Vamos a probarlo. Entonces aquí, hay cosas interesantes para explorar. Lo primero que hay que notar son estas indicaciones de muestra. Hay algunos ejemplos que nos ayudan a tener una mejor idea de cómo podrían verse estas indicaciones Además, si le pones atención a los libros de texto, podemos ver que hay algunos ejemplos proporcionados para nosotros. Leamos algunas de ellas. Categorizar una manzana como fruta o verdura. Escribe una función de JavaScript y explícamelo. Parafraseando, parece que está a punto de llover y muchos otros ejemplos más Simplemente muestra qué tipo de indicaciones puedes usar como ejemplos de un prompt de texto Ahora, exploremos una de las muestras que se proporcionan aquí. Echemos un vistazo a las ponderaciones casuales. Entonces, el mensaje sería reescribir esto en un correo electrónico casual, y luego proporcionas un mensaje de texto para un correo electrónico Puedo hacer clic en Ejecutar y ahora puedo ver que el modelo de idioma creó una respuesta a mi prompt. Exploremos el otro tipo de aviso, el prompt de datos. Entonces aquí, podemos ver que hay dos partes distintas. El primero es una tabla para escribir nuestros ejemplos rápidos. Y la segunda parte es para ayudarnos a probar nuestro prompt. Entonces veamos un ejemplo y veamos cómo se vería. Probemos con los opuestos. En los ejemplos, vemos que estamos proporcionando cuatro ejemplos diferentes de lo que cada una de estas entradas debería recibir como salida. Entonces, si nuestro prompt es encontrar una palabra o frase con significado opuesto, entonces podemos proporcionar ejemplos como si la entrada es fuerte, la salida debería ser débil. Si la entrada es gruesa, la salida debe ser delgada y así sucesivamente. Después de proporcionar estos ejemplos, podemos probar nuestro prompt. Ahora, preguntamos el modelo de idioma. Si la entrada es incorrecta, ¿cuál sería la salida? Y si la entrada es rápida, ¿cuál debería ser la salida? Y ahora si corremos, vemos que en respuesta al mal, el modelo de lenguaje está creando bien, y para la entrada rápida, el modelo de lenguaje crea lento. Podemos ver que por cada entrada, el modelo de lenguaje crea lo contrario que la salida. Exploremos el tercer tipo de prompt, prompt de chat. Aquí, también podemos ver que hay dos partes. Hay una parte para escribir nuestros ejemplos rápidos y otra parte para probar nuestro aviso. Entonces echemos un vistazo a algunas de estas muestras. Intentemos platicar con un extraterrestre. Entonces en el ejemplo, brindamos algún contexto. Sé un extraterrestre que vive en una de las de Júpiter y da un ejemplo Si el usuario dice, cómo va, el modelo debería decir, me va bien y así sucesivamente. Si quieres agregar más ejemplos, tenemos la opción aquí abajo. Y ahora podemos probar nuestro modelo. Entonces en respuesta, decimos, me gustaría visitarlo. ¿Qué debo hacer? Pero el modelo brinda una respuesta que es relevante y continúa la conversación. Podemos seguir interactuando con el modelo escribiendo más indicaciones. También tenemos algunas opciones para afinar el modelo a continuación. El primero es una vista previa de texto del mismo prompt en el que estamos trabajando. Ya sea un prompt de tabla o un prompt de chat, siempre podemos tener acceso a la versión de texto del mismo prompt. A través del otro, podemos afinar nuestro modelo. Podemos elegir qué tipo de modelo queremos utilizar. Podemos establecer la temperatura que define el nivel de aleatoriedad o creatividad del modelo, y también podemos personalizar el número de salidas que el modelo debe producir También hay algunos ajustes más avanzados disponibles. Entonces, para recapitular, primero, seleccionamos nuestro tipo de prompt e ingresamos un prompt, incluyendo cualquier ejemplo e instrucciones Sea cual sea el tipo de prompt que utilices, siempre tienes la opción de verlo en forma de texto. Si necesita probar la salida de los modelos, haga que su traje le resulte sencillo reutilizar las indicaciones diferentes maneras mediante el uso de entradas de prueba en sus indicaciones También tenemos la flexibilidad para jugar con los parámetros del modelo. Por ejemplo, hay una opción para ajustar el ajuste de temperatura, lo que influye en el elemento de aleatoriedad en las respuestas de los modelos Un valor más alto aquí a menudo conduce a salidas más inesperadas o incluso creativas. También podemos hacer ajustes adicionales a parámetros como secuencias de parada, número de salidas, etc. Y por último, después de que estés satisfecho con tu prompt, podrás guardarlo, compartirlo e incluso exportarlo a diferentes entornos de desarrolladores. Para guardar sus mensajes, Maker Suite ofrece una función de biblioteca rápida, que actúa como un espacio de almacenamiento seguro para todos sus mensajes, que los hace fácilmente recuperables También puedes guardar tus indicaciones en tu Google Drive. Compartir su mensaje es tan simple como hacer clic en el botón Compartir. Y si estás buscando exportar tu trabajo a un entorno de desarrollador, simplemente presiona el botón Obtener código. Puedes exportar tus mensajes en el formato que más te convenga. Código Python o JavaScript, Objetos JSON, o incluso como un comando CURL. Tu trabajo en Maker Suite, incluyendo la configuración, las instrucciones y los ejemplos de prueba , se almacenan en este fragmento de código Entonces, en conclusión, la combinación de Palm API y make your Suite ofrece un enfoque increíblemente conveniente y fácil de usar para la creación de prototipos con modelos de lenguaje grande Ponen en tus manos el poder de la IA generativa, proporcionando la flexibilidad para experimentar, modificar y refinar hasta que hayas creado la aplicación perfecta impulsada por IA Nos vemos en la siguiente. 19. L4V4 Estudio de IA generativa: A medida que crece la emoción en torno a la IA generativa, podemos ver que su poder para acelerar el proceso de creación de prototipos de aplicaciones cambia las reglas del juego Si tiene acceso a las herramientas adecuadas, como Generative AI Studio y otras capacidades GNAI que están disponibles ahora a través de Vertex AI en Google Cloud, puede experimentar, adaptar y perfeccionar nuevas ideas en Y por Snap, me refiero a minutos u horas en lugar de semanas y meses. Crear una aplicación es tan fácil como abrir el estudio generativo de IA en la sección Vertex AI de Google Cloud Console Seleccionando la modalidad con la que quieres trabajar, eligiendo tu formato preferido e ingresando tu prompt y ajustando los parámetros del modelo para un control adicional Con Generative AI Studio, tienes la oportunidad de explorar y adaptar modelos generativos de IA que adapten perfectamente a tus aplicaciones de Google Cloud Incluso puede incrustar estas aplicaciones en su sitio web o aplicación móvil. En este video, vamos a explorar generativo AI Studio disponible en Vertex Pero antes de eso, veamos brevemente qué otras herramientas están disponibles en Vertex AI Entonces así es como se ve dentro de Vertex AI. Si ampliamos el menú de la izquierda, podremos ver todas las herramientas que tenemos a nuestro alcance. Podemos ver que tenemos acceso a jardín modelo, banco de trabajo y tuberías También contamos con estudio generativo de IA, que hablaremos en breve Además de eso, contamos con herramientas para la administración de datos, desarrollo de modelos e implementación y uso de modelos. Generative AI Studio ayuda a los desarrolladores a crear e implementar modelos al proporcionar herramientas y recursos que facilitan el inicio Generative AI Studio te permite probar y personalizar rápidamente una variedad de modelos básicos de Google a través de indicaciones y ajustes , y te permite implementar fácilmente tus modelos afinados Dentro de Generative Va Studio, puedes acceder a los modelos de base de lenguaje, visión y habla de Google modelos de base de lenguaje, visión y habla La disponibilidad de algunas modalidades varía. Por ejemplo, se puede ver que al momento de grabar este video, no tengo acceso a modelos de visión. Entonces, centrémonos en el lenguaje y el habla. Centrémonos en el lenguaje por ahora. Puede hacer clic en el idioma desde el menú de la izquierda o abrir el botón en la parte inferior del cuadro de idioma. Si quieres tener una mejor idea de cómo puedes usar GN AI Studio para diferentes propósitos, deberías explorar la galería rápida. Entonces, antes de explorar los diferentes tipos de indicaciones, echemos un vistazo a la galería de mensajes Aquí podemos ver una variedad de indicaciones de muestra que están prediseñadas para ayudar a demostrar las capacidades del modelo Las indicaciones de muestra se categorizan por tipo de tarea, como resumen, clasificación y extracción Echemos un vistazo a un ejemplo. Al abrir la solicitud de muestra, puede ver que las solicitudes están preconfiguradas con un modelo y valores de parámetros específicos Así que simplemente puedes hacer clic en Enviar y obtener el modelo para generar una respuesta. Para trabajar directamente con los modelos lingüísticos, tenemos tres opciones. Interactúa con el modelo forma libre o de forma estructurada, interactúa con el agente como chatbot o crea un modelo afinado que esté mejor equipado para nuestros casos de prueba Exploremos el mensaje de texto o código en formato libre. Así que intentemos diseñar y probar tus propias indicaciones. Aquí, puedo darle un aviso al modelo y pedirle que produzca una respuesta. Acabo de proporcionar un artículo largo aquí y estoy pidiendo al modelo que proporcione un breve resumen para el siguiente artículo. Para diferentes tipos de indicaciones, también puedo usar mi micrófono y hablar directamente con el modelo En el lado derecho, también podemos ver que hay algunos ajustes que podemos usar para configurar el modelo. Podemos elegir qué tipo de modelo queremos utilizar. Aquí, tenemos dos modelos de lenguaje y dos de modelos. Podemos establecer la temperatura para el modelo, que controla el grado de aleatoriedad o creatividad También podemos establecer el límite de token, que determina la cantidad máxima salida de texto a partir de un prompt. Top K cambia la forma en que el modelo selecciona tokens para la salida. Top P cambia la forma en que el modelo selecciona tokens para la salida, y también podemos establecer diferentes umbrales de filtro de seguridad Entonces ahora podemos pedirle al modelo que produzca una respuesta para nuestro prompt. Hagamos clic en Enviar. Y podemos ver que el modelo resume el largo artículo en tres líneas Si está haciendo algunas indicaciones de toma, una plantilla de solicitud estructurada está disponible para que sea más fácil al proporcionar un formulario para contexto y ejemplos Para indicaciones estructuradas, volvamos a nuestro ejemplo de clasificación de vinos Podemos proporcionar algún contexto al modelo, que instruye cómo debe responder el modelo También podemos proporcionar múltiples ejemplos al modelo. Estos ejemplos ayudan al modelo entender cómo es una respuesta apropiada del modelo. También tenemos nuestros ajustes en el lado derecho. También tenemos la opción de agregar más columnas para ejemplos más complejos. Y para probar el modelo, proporcionamos una entrada, ya sea escribiéndola en la sección de entrada o hablando directamente con el modelo. Y cuando hago clic en Enviar, el modelo genera una respuesta para mí. Podemos convertir fácilmente cualquier prompt estructurado a forma libre. Y así es como se ve. Puedes elegir iniciar un chat de texto o código para iniciar una conversación con la modelo. Puede proporcionar contexto y ejemplos de interacciones para dirigir aún más la conversación. Todos los ajustes para configuración del modelo están disponibles aquí también. Ahora, probemos un mensaje de chat. En el prompt de chat, tenemos la opción de darle algún contexto al modelo, que le instruye sobre cómo debe responder También podemos proporcionar ejemplos para ayudar al modelo a comprender cómo sería una respuesta adecuada. Por ejemplo, si el usuario dice esto, el modelo debería decir esto. También tenemos la opción de brindar más ejemplos al modelo. Después de proporcionar suficiente contexto y ejemplos, podemos comenzar a platicar con el agente. Entonces, si preguntas cuántos planetas hay en el sistema solar, el modelo brinda una respuesta adecuada. De igual manera, podemos hacer otras preguntas y el modelo sigue brindando respuestas adecuadas y precisas, consistentes con los ejemplos que brindamos. Ahora, veamos cómo podemos crear un modelo afinado usando nuestra propia base de datos. Tenemos la opción de afinar un modelo para que esté mejor equipado para nuestros casos de uso. Vamos a echarle un vistazo. Así que aquí, podemos elegir nuestro conjunto de datos JSON y establecer una ubicación para almacenar el conjunto de datos en la nube. Después de proporcionar el conjunto de datos, podemos ajustar los detalles del modelo, y después de eso, podemos ajustar el modelo en función de nuestro conjunto de datos y nuestra configuración. Para decidir qué modelo sería el más adecuado para nuestros casos de uso específicos, podemos consultar la biblioteca de modelos de cimentación de Google, que está disponible en Model Garden. En Model Garden, puedes explorar modelos por modalidad, tarea y otras características Con muchos modelos listos para empresas diferentes a su disposición, Model Garden le permite seleccionar el modelo más adecuado dependiendo de su caso de uso, su experiencia en aprendizaje automático y su presupuesto disponible. Bien, es hora de revisar los modelos de discurso. Ahora es el momento de explorar los modelos de habla. Podemos elegir el discurso ya sea desde el menú la izquierda o haciendo clic en el abierto debajo del cuadro de discurso. Aquí, tenemos dos opciones distintas, texto a un discurso o discurso a texto. Vayamos a texto a discurso. Aquí, podemos proporcionar el texto o hablar directamente con el modelo. Después de proporcionar el texto, tenemos algunas opciones para elegir diferentes idiomas o establecer la velocidad del discurso. Si todo se ve bien, podemos hacer clic en Enviar. Y ahora tenemos una voz de IA sintetizada que puede leer ese texto por nosotros. Crear una aplicación es tan fácil como abrir el estudio generativo de IA en la sección Vertex AI de Google Cloud Console Seleccionando la modalidad con la que quieres trabajar, eligiendo tu formato preferido Para funciones más avanzadas como soporte para audio más largo, podemos usar Speech Studio y así es como se ve el entorno. También tenemos discurso a texto. Aquí, podemos subir un archivo de audio o grabar nuestra propia voz. Y después de dar el discurso al modelo, podemos ver que lo convierte en texto. Entonces ahora grabé mi voz y hago clic en Enviar Y aquí está mi discurso convertido en texto. También podemos usar el estudio de discursos para aplicaciones de discurso a texto. Ambas funciones, voz a texto y texto a voz están disponibles en el estudio de voz. Después de haber personalizado su modelo, tiene algunas opciones. Puede guardar el mensaje en la galería de mensajes. También puede implementarse plataforma de aprendizaje automático de Vertex AI para producción y administración O puede implementar sus modelos recién ajustados directamente en su sitio web y aplicaciones. En conclusión, a través del estudio de IA generativa de Vertex AI, podemos acceder a modelos de lenguaje, visión y habla A través de modelos de lenguaje, podemos probar, sintonizar e implementar modelos de lenguaje de IA generativos También podemos acceder a la API palm o Cody para la generación de contenido, chat, resumen, código y Con modelos de visión, podemos escribir mensajes de texto para generar nuevas imágenes usando la API imagine También podemos generar nuevas áreas para una imagen existente. Y con los modelos de voz, podemos convertir voz en texto usando la API chirp También podemos sintetizar discurso a partir de texto utilizando el modelo de voz Universal de Google o USM, y eso concluye este video sobre el estudio generativo Va sobre estudio generativo Va 20. Demo-demostración de hojas de aplicaciones: En nuestro video de introducción en apsheet, vimos que a través de apsheet podemos crear aplicaciones personalizadas sin escribir código Recientemente, Google agregó capacidades GNAI, lo que nos hace capaces de explicar directamente el tipo de aplicación que necesitamos para apht nos construye una aplicación de inicio basada en esa Luego podemos modificar y personalizar aún más la aplicación de inicio solo a través del chat con afheet Consideremos el siguiente ejemplo. Anne Gray es gerente de una empresa y una de sus responsabilidades es supervisar las solicitudes de viaje de sus compañeros de trabajo Estas solicitudes pueden provenir de correos electrónicos, chat o en reuniones, lo que puede llegar a ser bastante abrumador. Se pregunta si la función generativa de IA en apsheet puede ayudarla a agilizar las operaciones al facilitar una solución para aprobar y rastrear Para probarlo, decide explorar la aplicación de chat apsheet disponible en Google Chat Veamos cómo funciona. Para acceder a esta función de chat, vamos a chat.google.com Después seleccionamos Explorar aplicaciones y encontramos la aplicación de chat apshet. Ahora veamos cómo se vería el proceso desde la perspectiva de Ann. En la primera página, podemos ver que apsheet da la bienvenida al usuario y lo invita a enviar una descripción de una app o problema de negocio que desea resolver Por ejemplo, describiendo un flujo de trabajo. Un hace esto describiendo brevemente lo que necesita algo para simplificar el proceso de los gerentes reciben y aprueban solicitudes de viaje Ella se suma a la descripción al señalar los tipos de datos que también necesitará realizar un seguimiento después de ingresar al prompt, Ushid responde con un esquema general de la aplicación Desde el primer mensaje de Ann, Upshd ha reconocido que la aplicación debe tener un flujo de aprobación y le pide que elija cómo se deben enviar las notificaciones para la solicitud de aprobación Como podemos ver, hay diferentes opciones disponibles aquí selecciona solo correo electrónico por ahora. A continuación, apshet sugiere algunas pantallas que tal vez quiera incluir, un formulario para que los usuarios envíen nuevas solicitudes, una lista de resumen de viajes, próximos viajes y algunas otras vistas Estas pantallas son básicamente la columna vertebral del esquema de aplicaciones de Anne. Describe de qué se trata su aplicación. Ella no quiere una pantalla de M Travel en su aplicación, así que la deselecciona para eliminarla de la aplicación y luego hace clic en App Ahora que Apsheet sabe qué armar para la aplicación de solicitud de Ann's Travel, confirma las tablas que podrían crearse en la base de datos de Apsheet Estos conjuntos de datos se crean en función las pantallas o vistas de aplicaciones que acaba de seleccionar. Upsheet crea dos tablas para soportar Schema, viajes y equipo Aún no hemos ingresado ningún dato en nuestra app, así que todas estas tablas estarán vacías. Si no tenemos ningún dato en la app, entonces ¿cómo podemos probar para ver si todo funciona? Pensó molesto en eso también. Después de crear las tablas, Upseet ofrece la opción incluir datos de muestra en la aplicación Anne está lista para probar la aplicación, así que elige que sí. Y finalmente, apseet le pide a Anne que elija un nombre para su aplicación A llama a este símbolo viaje, y eso es todo. Apshets next response es un enlace a una vista previa completamente funcional de la aplicación que se acaba Tomemos un descanso y echemos un vistazo atrás a lo que hemos hecho hasta ahora. A través de solo unos pocos intercambios de preguntas y respuestas, apseet pudo tomar la solicitud de Ann, que estaba escrita en lenguaje natural, y recomendé varias soluciones, incluidas las pantallas que los usuarios de su aplicación necesitarán ver Las cosas que tendrán que hacer y el lugar para que se almacenen los datos. Incluso se configura la notificación por correo electrónico a los usuarios. Crear una app a través del lenguaje natural sin codificación es una magia que ahora es una realidad en app sheeet Permite a muchos usuarios nuevos desarrollar aplicaciones de manera rápida y eficiente. Al seguir adelante, a Anne se le presenta la opción de obtener una vista previa la aplicación que se le ha creado o sumergirse en el editor de Ashoot para su personalización Ella elige echar un vistazo rápido primero a la vista previa. Mientras navega por el emulador de aplicaciones en su escritorio, explora las vistas que generó el ábside, comenzando desde nuevos viajes, a viajar por usuario, y finalmente los próximos viajes Esta última vista muestra tanto un mapa como una lista de viajes futuros, todos llenos los datos de muestra que decidió incluir anteriormente. Todo parece estar en orden hasta el momento. Pero Ann se da cuenta de que falta una vista que tenía en mente en la aplicación. Ella tiene en mente una adición particular, una pantalla que compila todas las solicitudes de viaje en un panel integral, proporcionando al equipo de finanzas una respuesta a una pregunta que hacen con frecuencia ¿Cuál es el costo total del viaje de cada empleado? En el editor, y se da cuenta la función de IA generativa que utilizó antes, también está disponible aquí. Ella escribe en su solicitud de un nuevo tablero, y en ningún momento Abscht toma su solicitud, disecciona y sugiere los componentes necesarios para esta los componentes necesarios para Propone una nueva columna calculada para su tabla de equipo y da una vista previa del gráfico que representará los datos agregados, tal como lo hizo antes y quiere escudriñar cada parte de los cambios sugeridos Entonces ella echa un vistazo al gráfico de vista previa. Y se ve bien. Después inspecciona la nueva columna en la base de datos para asegurarse de que todo esté bien ahí Utiliza el enlace proporcionado para ver el cambio propuesto en la tabla de aprobación en la base de datos de asheet. Con un rápido vistazo a los números y confirma que la nueva vista y los cambios de datos se alinean con sus expectativas. Ella aprueba los cambios en el editor de apsheet, y eso es todo. Su app ya está en vivo y lista para usar y siente que tiene lo que necesita. Su confianza en las tablas y columnas que apseet le ha creado es alta Como está contenta con la funcionalidad de su aplicación, se deshace de los datos de muestra, despliega la aplicación y la comparte con su equipo Ahora su equipo puede ver esta versión refinada de la aplicación y comenzar a enviar sus solicitudes de viaje. Avance rápido unas semanas mientras Anne está pasando por intranet de su compañía para una forma específica, una idea le llama Anne vuelve al editor. Sabiendo la frecuencia con la que su equipo usa Google Chat, considera la función de aplicación de chat sin código de Apsheets Esto permitiría a su equipo buscar el formulario requerido simplemente platicando con viajes de símbolos Anne vuelve a la editora y habilita viajes de símbolos como una aplicación de chat para los espacios internos de sus dominios. Este paso hace factible que los colegas de Anne agreguen viajes de símbolos a sus espacios de chat de Google, chats grupales o incluso en conversaciones privadas. Ahora es el momento de repasar los ajustes. Por defecto, símbolo Travel chat app mostraría una lista de todas las vistas de aplicaciones accesibles a los usuarios. Pero Anne está construyendo esta versión de chat específicamente para usuarios finales. Los empleados que principalmente quieren usar la aplicación para enviar solicitudes de viaje. Ella elige solo las vistas de aplicaciones necesarias para sus usuarios, lo que significa que tiene que eliminar todo excepto los formularios de solicitud. A continuación, y agrega un mensaje de bienvenida para sus usuarios, proporcionando algún contexto sobre cómo interactuar con el chat up. Ella decide incluir un comando slash. Al agregar este comando, cada vez que un usuario escribe slash NETRIP, la aplicación de chat abre rápidamente el formulario de solicitud de viaje Aphit también proporciona un comando de búsqueda inteligente. Este comando permitiría a sus compañeros de equipo usar la canalización de procesamiento del lenguaje natural de Aphts para buscar datos o vistas en su aplicación Pero decide mantener las cosas simples y desactiva el comando de búsqueda inteligente Su última tarea consiste en configurar una automatización para notificar a los usuarios cada vez que cambia su estado de aprobación de viaje. En esta página, se puede crear el flujo correcto trabajando con una interfaz gráfica. De esta manera, puede construir las bases para la automatización necesaria Una vez hecho esto, ella nombra su automatización, ajusta algunos detalles sobre cuándo debería ejecutarse y cómo se deben enhebrar las respuestas y regresa al creador de aplicaciones de chat para concluir las cosas Gracias a Apshts no hay implementación de la aplicación de chat de código, y no necesita lidiar con ninguna configuración adicional para que su aplicación o su automatización funcione en el Upshet se encarga de toda la configuración de la plataforma Google Cloud detrás de escena, todo con un solo clic Ahora y está lista para compartir su aplicación de chat con el equipo. Y ahí va. La aplicación de chat ya está en vivo y está lista para ser instalada y utilizada por toda su organización. Ahora digamos Jeffrey Clark, un miembro del equipo de Ann decide usar la aplicación Jeffrey necesita aprobación para sus planes de viaje para visitar las instalaciones del cliente Ya ha instalado el símbolo Travel chat app, por lo que escribe el slash New Trip Command para que aparezca el formulario de solicitud de viaje Jeffrey ingresa todos los detalles necesarios sobre su próximo viaje en el formulario y pulsa enviar Desde el final de Anne, puede ver que la solicitud de Jeffrey aparece casi instantáneamente La nueva solicitud de aprobación activa una notificación por correo electrónico al gerente de Marcus Jeffrey Marcus recibe un correo electrónico detallando la solicitud de viaje de Jeffrey Después de examinar los detalles de la presentación, Marcus sigue adelante y aprueba el formulario directamente desde su Gmail. En cuestión de segundos, Jeffrey se da cuenta de una notificación de chat de viaje con símbolos Cuál es el mensaje es confirmación de aprobación de viaje. Felicidades Jeffrey y viajes seguros. Así que al terminar, fuimos testigos del poder de la función de IA generativa de App Sheets Ayudó a Ann a crear y personalizar una solución para administrar solicitudes de viaje de su equipo utilizando lenguaje natural y sin código. Un desafío empresarial resuelto de manera eficiente, creando una aplicación de solicitud de viaje ajustada a las necesidades de su equipo. La perfecta integración con Google Chat y el buen funcionamiento como se muestra en solicitud de viaje de Jeffrey y pronta aprobación de Marcus subrayan la accesibilidad y eficiencia de la plataforma Este es el poder de no desarrollar código. APSHETSGenerative AI está revolucionando la ausencia de desarrollo de código, haciéndola accesible, eficiente haciéndola