Transcripciones
1. Introducción a GenAI: Hay muchos cursos
por ahí sobre IA generativa. Pasé mucho tiempo
repasando muchos de ellos porque quería
asegurarme de que en este curso, te
estoy dando todos los
fundamentos que
necesitas para entender completamente
qué es la IA generativa Y encima de eso, te voy a dar algunos ejemplos
prácticos,
algunas demostraciones prácticas
sobre diferentes herramientas que utilizan IA generativa
que pueden ayudarte hoy Soy el Profesor Reza, y doy clases a estudiantes de
pregrado y
posgrado
temas de informática e inteligencia
artificial. También tengo miles
de estudiantes en línea. He realizado investigaciones sobre IA y he colaborado con prestigiosos institutos
como MIT Media Lab, Carnegie Mellon University,
Harvard University
y University of California Y los resultados de esos
trabajos se han publicado en recintos como Springer
Nature y ACL Voy a usar toda esa experiencia y todo lo
demás que he aprendido en todos estos tiempos para
hacerte saber cómo puedes entender la
transformación de la IA
tradicional a la IA general. Este curso se divide en
cinco secciones diferentes. En la primera sección,
cubriremos la inteligencia artificial
tradicional. Daremos una definición de lo que es la inteligencia artificial. También cubrimos qué
es el aprendizaje
automático y discutimos diferentes
tipos de aprendizaje automático,
incluido el aprendizaje no supervisado, el
aprendizaje supervisado y el
aprendizaje por refuerzo, y también discutiremos el aprendizaje
profundo y la diferencia entre el aprendizaje profundo
discriminativo
y el aprendizaje profundo generativo En la segunda sección,
discutiremos cómo
distinguir entre IA
generativa y
machine learning tradicional Después
hablaremos de IA generativa y proporcionaremos algunos
ejemplos de IA generativa Discutiremos qué son los
transformadores y cómo cambian el juego en la inteligencia
artificial. También cubriremos
temas como ingeniería
rápida y modelos de
cimentación. Después discutiremos diferentes
tipos de IA generativa y en esta sección
con algunos ejemplos de generación de código usando IA En la sección tres,
discutiremos modelos de lenguaje de gran tamaño. Proporcionaremos una
introducción a ellos y también proporcionaremos una comparación entre
LLM e IA generativa,
y también discutiremos los beneficios de
los En la Sección cuatro, hablaremos sobre diferentes tipos de
herramientas que Google Cloud nos
proporciona para que podamos usar IA
generativa para
nuestros propios proyectos En la última sección,
proporcionaré una demostración sobre cómo
construirlos usando IA
generativa sin escribir una
sola línea de código Entonces, si te entusiasma
aprender qué
es la IA generativa y cómo puedes usarla en tu vida diaria, vamos a sumergirnos en
2. L1V1: IA tradicional: En este video, brindamos una introducción a la inteligencia
artificial tradicional. La inteligencia artificial
es una disciplina como la física o la química. Se trata de una rama de la
informática que se ocupa de la creación
de agentes inteligentes, que son sistemas
que pueden razonar, aprender y actuar de manera autónoma De manera más formal, IA es la teoría
y desarrollo de sistemas
informáticos capaces de realizar tareas que normalmente requieren inteligencia
humana. Uno de los subcampos de la
IA es el aprendizaje automático. El aprendizaje automático es un programa o sistema que entrena el
modelo a partir de datos de entrada. Ese modelo entrenado puede hacer predicciones
útiles
a partir de datos nuevos o nunca antes vistos extraídos del mismo utilizado
para entrenar el modelo. aprendizaje automático brinda a
las computadoras la capacidad de aprender sin programación
explícita. Otro subcampo de la
IA es el aprendizaje profundo. El aprendizaje profundo es un tipo de aprendizaje
automático que utiliza redes neuronales
artificiales. Las redes neuronales artificiales están inspiradas en la estructura
del cerebro humano, y pueden usarse para procesar patrones
complejos que los algoritmos
tradicionales de
aprendizaje automático no pueden. Discutiremos el aprendizaje
automático y aprendizaje
profundo con más detalle más
adelante en esta sección. Pero antes de eso, vamos a
dar una visión general de la IA. El resto de este video está
estructurado de la siguiente manera. Primero, proporcionaremos un ejemplo de la vida real del uso de inteligencia
artificial. Después proporcionaremos una
breve historia de la IA. A continuación, trataremos de
entender qué es la
inteligencia artificial, y luego cubriremos
diferentes tipos de IA, diferentes aplicaciones de la IA, y también discutimos cómo será el
futuro de la IA. Cuando hablamos de IA
haciéndonos la vida más fácil, las casas
inteligentes son un
excelente lugar para comenzar. Así es como funciona.
En una casa inteligente, tenemos electrodomésticos
y sensores activados por voz. Son como tu propio asistente
personal ajustando la luz y el aire acondicionado para que coincidan con el clima exterior Después está el sistema
de seguridad. Siempre está al
acecho detectando cualquier movimiento inusual afuera y alertándote Aquí está la parte realmente genial. Todos estos electrodomésticos
hablan entre sí. Están conectados e incluso pueden
comunicarse con tu auto. Por ejemplo, al abrir la puerta del
garaje cuando
entras a tu entrada
y para colmo, puedes administrar todos
estos electrodomésticos desde tu teléfono
donde sea que estés Hay tanto que la
IA puede hacer por nosotros. Pero antes de
distraernos con las aplicaciones, demos un paso
atrás ahora y
profundicemos en cómo llegó a ser la
inteligencia artificial Aquí hay una línea de tiempo de inteligencia
artificial. En 1950, a Alan Turing
se le ocurrió la prueba touring, una prueba de la
capacidad de una máquina para exhibir comportamiento
inteligente
equivalente o distinguible
del de un humano En 1956, John McCarthy acuñó el término
inteligencia artificial y organizó el Dartmouth Summer
Research Project on Artificial Intelligence,
la primera conferencia sobre la En 1969, se construyó Shake the
Robot, el primer robot móvil de
propósito general. Aunque simple para los estándares
actuales, Shake marcó un hito
en el desarrollo de IA al demostrar la
capacidad de procesar datos y realizar
tareas con un propósito. En 1997, Deep Blue derrotó al
campeón mundial de Ajedrez Gary Kasparov La primera vez que una computadora había golpeado a un humano en
un juego complejo. La victoria de Deep Blue fue un
gran avance para la IA, demostrando la capacidad de las computadoras para aprender y adaptarse. En 2002, se introdujo la primera
aspiradora robótica de
éxito comercial . Y para la década 2005-2015, vimos el desarrollo de
una serie de nuevas tecnologías de IA, incluyendo reconocimiento de voz, automatización
robótica de procesos o RPA, robots
danzantes, hogares inteligentes y autos autónomos En 2016, AlphaGo, un programa informático desarrollado
por Google Deep Mind, derrotó al
campeón de World Go Lee Sidle La victoria de Alpha Go fue un hito
importante para la IA, demostrando la
capacidad de las computadoras para dominar juegos
estratégicos complejos. En 2017, Transformer
Technology se introdujo en un artículo llamado La
atención es todo lo que necesitas. La tecnología de transformadores ahora
se usa ampliamente en tareas de
procesamiento del lenguaje
natural como la traducción automática y el resumen de
textos En 2020, se lanzó GPT three, un modelo de lenguaje grande desarrollado
por OpenAI GPT tres es capaz de
generar texto de calidad humana, traducir lenguaje y escribir diferentes
tipos de contenido creativo Y finalmente, en 2023, se lanzan
las herramientas de IA de
Google Cloud Gen, que proporcionan un conjunto de herramientas para que
los desarrolladores creen e
implementen aplicaciones de IA. En el mismo año, se lanzó Bart, un modelo de lenguaje de gran tamaño desarrollado un modelo de lenguaje de gran tamaño desarrollado
por Google AI. El arte es capaz de responder tus preguntas
de manera informativa, aunque sean abiertas,
desafiantes o extrañas. Esto es solo una breve descripción
de la historia de la IA. La IA es un campo
en rápido desarrollo y se están
haciendo nuevos avances todo el tiempo. Será interesante ver
qué depara el futuro de la IA. Hemos sido un viaje tranquilo
con inteligencia artificial. A partir de la década de 1950 con las pruebas
innovadoras de Turing, el término inteligencia artificial se
acuñó en 1956, y comenzó una nueva A lo largo de los años, fuimos testigos de hitos
como la creación de nuestro primer robot
móvil de propósito general Shaki en 1969 Para 1997, las computadoras estaban
derrotando a campeones de ajedrez, y ahora aquí estamos en 2023, presenciando modelos de lenguaje altamente
sofisticados como GPT three Es un poco como la
revolución informática de los 80, pero esta vez,
se trata de IA. Dominar estas nuevas y
poderosas herramientas es cada vez más crucial a medida que se acelera el ritmo de los avances en IA El potencial es inmenso, igual que lo fue para esas visas de
computadora en los 80. Así que abróchate el cinturón para este
emocionante viaje por delante. No se trata solo de ver lo que traerá el futuro
de la IA, sino de ser parte de dar forma a
ese futuro nosotros mismos. Comprender la
inteligencia artificial. La IA es una rama de
la informática que crea máquinas inteligentes
capaces de realizar tareas humanas como reconocimiento de
voz, identificación de
objetos, aprendizaje, planificación
y resolución de problemas. ¿Recuerdas la computadora
que superó al campeón de ajedrez o
la que controla
las luces de
tu casa? Eso es la IA resolviendo
problemas, igual que nosotros. Nuestra comprensión actual
de la IA se basa en gran medida en cómo interactúa con nosotros y cómo se compara con las capacidades
humanas Cosas como el
reconocimiento de voz y detección de
objetos son
grandes en la IA hoy en día. Se trata de la capacidad de
absorber información, aprender de ella y usarla para planificar y abordar tareas futuras. A actividades muy humanas. Esto, en cierto sentido, es la magia de la IA. Para entender correctamente la IA, necesitamos entender
tres conceptos, diferentes tipos de IA, diferentes aplicaciones de IA y diferentes posibilidades
para el futuro de la IA. Ahora, comencemos con
diferentes tipos de IA. Hay muchos tipos
diferentes de IA, pero se pueden
clasificar ampliamente en cuatro categorías
diferentes. El primero es la IA reactiva. Los sistemas de IA reactiva
solo pueden responder al
estado actual del mundo. No tienen ningún
recuerdo ni eventos pasados, y no pueden planear
para el futuro. Un ejemplo de ello es un robot de juego de ajedrez que
sólo sigue un conjunto de instrucciones
lógicas y reacciona correctamente en
función del movimiento del oponente. El segundo tipo de IA
es la IA de memoria limitada. Estos sistemas pueden recordar eventos
pasados y usar esta
información para tomar decisiones. No obstante,
no pueden razonar sobre el futuro ni entender las
intenciones de otros agentes. Un ejemplo de eso podría
ser una aplicación de MP que sugiera lugares para comer en base a sus visitas
anteriores. El tercer tipo de inteligencia
artificial es la teoría de la mente IA. Estos sistemas pueden entender los pensamientos e intenciones
de otros agentes. Esto les permite cooperar
con otros agentes y lograr metas que
serían imposibles para
un solo agente. Una forma en que la teoría de la mente IA podría revolucionar la
forma en que interactuamos con las máquinas es mediante la creación robots que sean capaces de
brindar compañía y apoyo a personas que se encuentran solas o aisladas o a través asistencia
virtual que
sean capaces de comprender nuestras necesidades y brindarnos la información y
asistencia El cuarto tipo de
IA es la IA autoconsciente. La IA autoconsciente es un tipo
hipotético de IA que sería consciente y tendría sus propias experiencias subjetivas Supongamos que tenemos una asistente
robot personal llamada Eve. Si Eve fuera una IA consciente de sí misma, no solo
seguiría instrucciones
preprogramadas
o reaccionaría a nuestras órdenes En cambio, entendería
su propia existencia y tendría sus propios
sentimientos y pensamientos. Por ejemplo, si le pedimos a
Eve que traiga un libro
de la biblioteca, una IA regular
simplemente calcularía el camino más corto
e iría a buscar el libro Sin embargo, una IA consciente de sí misma como Eve podría pensar
si es un buen día para caminar o reflexionar
si últimamente ha buscado demasiados libros y
sugerir un libro Es importante señalar
que este tipo de IA
autoconsciente es puramente
hipotética en este punto Algunos investigadores creen que es una posibilidad futura que
vale la pena explorar. Ahora, vamos a bucear en
aplicaciones de IA. La inteligencia artificial no se trata
solo de imitar las capacidades
humanas, sino también de
aumentar nuestras habilidades y mejorar la eficiencia
en muchas Desde el transporte
hasta la atención médica, los servicios
financieros
hasta la atención al cliente y la educación y el entretenimiento, el potencial de la
IA
parece ser ilimitado Estos son algunos ejemplos de
cómo se está utilizando la IA en la actualidad. Autos autoconducidos. La IA está revolucionando la forma en que
viajamos. Está alimentando autos
autónomos que pueden navegar por las carreteras y evitar
obstáculos de forma autónoma, lo que lleva a carreteras más seguras Diagnóstico médico.
En la atención médica, IA está haciendo avances
en el diagnóstico de enfermedades, a menudo superando a
los médicos humanos Al analizar grandes
cantidades de datos médicos, ayuda a identificar
patrones y tendencias
que apoyan a los médicos a tomar decisiones
más informadas. Banca y detección de fraude. IA ha madurado significativamente en el sector bancario durante
la última media década, desde predecir transacciones potencialmente
fraudulentas hasta determinar la elegibilidad de préstamos en
función de varios factores, IA juega un papel fundamental en el sector financiero
actual Atención al cliente
y soporte en línea. Imagine que una empresa
como HP administra más de
70.000 páginas de ayuda
en 17 idiomas. IA entra aquí, automatizando la atención al cliente y brindando servicio
las 24 horas del día, reduciendo
significativamente el costo y mejorando la eficiencia Educación. En el
ámbito de la educación, IA permite experiencias de
aprendizaje personalizadas, adaptándose a las necesidades
individuales de cada estudiante y fomentando un proceso de aprendizaje más
efectivo. Entretenimiento. Nuestra
asistencia virtual como Siri, Cortana, Alexa y Google
está impulsada por IA Con sus capacidades de
reconocimiento de voz, son como tener una secretaria
personal a sus órdenes y ciberseguridad En el dominio digital, IA es nuestro vigilante Con sus algoritmos de
aprendizaje automático y su vasto análisis de datos, detta anomalías y
responde a amenazas, fortaleciendo nuestra medida de
ciberseguridad Como puede ver, la IA
se ha entrelazado en cada
faceta de nuestras vidas, mejorando nuestras capacidades y remodelando tanto nuestro panorama comercial Las posibilidades son inmensas, y continúan expandiéndose
con cada día que pasa. Ahora
hablemos del futuro de la IA. Cuando pensamos en
el futuro de la IA, es realmente bastante fascinante. Estamos al borde
de una época en los autos
autónomos
podrían ser la norma Imagina tener robots
en casa ayudándonos con tareas desde hacer café
hasta cosas más complicadas. También estamos viendo el
auge de las ciudades inteligentes donde IA maneja de todo, desde nuestros teléfonos hasta
electrodomésticos. Además, los robots están
dando un paso adelante para hacer trabajos
de alto riesgo como
diffusel de bombas, por ejemplo A medida que la IA continúa desarrollándose, es probable que tenga un impacto aún
mayor en nuestro mundo. Entonces, en base a todo eso, algunas posibles aplicaciones
de la IA en el futuro pueden incluir el
transporte automatizado. Imagina un mundo donde la IA
haga todo el impulso por nosotros. Nos estamos acercando
a una realidad donde los autos
autónomos son una forma
estándar de moverse. Sin embargo, esto no se
trata solo de autos. Estamos hablando de drones automatizados, entregando nuestros paquetes, trenes impulsados por
IA, asegurando un transporte preciso
y
oportuno e incluso
barcos y aviones autónomos. Todo esto tiene como objetivo
hacer que nuestro viaje sea más seguro y eficiente
al reducir el error humano. Es un cambio masivo que podría redefinir cómo pensamos
sobre el transporte Medicina personalizada, la IA puede ser útil para analizar grandes
cantidades de datos médicos para identificar patrones y
tendencias que puedan ayudar a
los médicos a diagnosticar y tratar
enfermedades de manera más efectiva. Por ejemplo, la IA
se puede utilizar para desarrollar tratamientos
personalizados contra el cáncer que se adaptan a la composición
genética específica de cada paciente. Asistencia virtual. La asistencia virtual
impulsada por IA puede ayudarnos con una variedad de tareas, como programar
citas, hacer arreglos de viaje
y administrar nuestras finanzas. asistencia virtual también puede proporcionarnos información
y entretenimiento, e incluso se pueden usar para controlar nuestros dispositivos domésticos inteligentes. Y hablando de
hogares inteligentes en sí mismos, IA se puede utilizar para hacer que nuestros hogares más cómodos,
eficientes y seguros. Por ejemplo, la IA se puede utilizar
para controlar nuestros termostatos, luces y otros aparatos Y también se puede
utilizar para monitorear nuestros hogares en busca de amenazas a la seguridad. Y por último pero no menos importante inteligencia general
artificial o AGI. AGI es un tipo hipotético de IA que sería tan
inteligente como un ser humano AGI podría potencialmente
resolver algunos de los problemas más
acuciantes del mundo , como el
cambio climático y la pobreza. Sin embargo, AGI también plantea
algunas preocupaciones éticas, como el potencial
para que la IA se vuelva
consciente de sí misma y desarrolle sus
propios objetivos y deseos. La IA es una tecnología poderosa con el potencial de revolucionar
muchos aspectos de Es importante estar al tanto de los posibles
beneficios y riesgos de la IA y utilizarla de manera responsable Espero que hayan disfrutado de esta
breve explicación sobre IA. En el siguiente video,
vamos a tener una mirada
más profunda
al aprendizaje automático.
3. L1V2: aprendizaje automático: ¿Qué es el aprendizaje automático? En este video, vamos a cubrir los conceptos básicos del aprendizaje
automático. Específicamente, vamos a comenzar con una definición de
lo que es el aprendizaje automático. Luego proporcionamos una comparación entre inteligencia artificial, aprendizaje
automático
y aprendizaje profundo. Luego discutimos cómo funciona el aprendizaje
automático. Hablamos de diferentes
tipos de aprendizaje automático, aprendizaje supervisado, aprendizaje
no supervisado
y aprendizaje por refuerzo Hablamos de los prerrequisitos
para el aprendizaje automático, y al final, brindamos algunos ejemplos de aplicaciones
del aprendizaje automático Entonces, ¿qué es el aprendizaje automático? aprendizaje automático trabaja
en el desarrollo de programas informáticos
que pueden acceder a los datos y utilizarlos para aprender y
mejorar
automáticamente de la experiencia. Esto permite que el aprendizaje automático nos ayude
a realizar tareas complejas, como la impresión en tres D
de casas enteras. Mediante el uso de algoritmos
y grandes conjuntos de datos, aprendizaje
automático puede automatizar el
diseño y la planificación, lo que ayuda a abordar desafíos de
construcción
como la integridad estructural
y la eficiencia de los materiales. También puede personalizar diseños en función de
las condiciones ambientales. Puede ayudar a reducir costos
y tiempo a la vez que aumenta precisión y tiene el potencial transformar la industria de la
construcción. Como otro ejemplo, considera nuestra asistencia personal como Siri o Google Assistant
o Amazon Echo Todos utilizan el poder
del aprendizaje automático para ayudarnos con nuestras tareas
cotidianas como tocar nuestra música favorita o pedir
comida o controlar por voz nuestros electrodomésticos o solicitar derechos a
Uber y mucho más. Como dijimos antes, la inteligencia
artificial es una técnica que permite a
las máquinas imitar el comportamiento
humano Esto es clave porque así es como
averiguamos si nuestros
cálculos y trabajo van por buen camino al ver si pueden
imitar el comportamiento humano Estamos usando este
enfoque para hacerse
cargo de parte del
trabajo que hacen los humanos con el objetivo de hacer las cosas más eficientes, aerodinámicas
y precisas. La IA es un campo amplio que abarca muchas tecnologías
diferentes. Algunos ejemplos de
inteligencia artificial incluyen IBM, ajedrez
Deep Blue, personajes de
juegos electrónicos y autos autónomos. Estos son solo algunos
ejemplos de muchas formas que la inteligencia artificial
se está utilizando hoy en día. El aprendizaje automático es una
técnica que utiliza métodos
estadísticos para permitir que las máquinas aprendan
de sus datos pasados. Esto significa que las máquinas
pueden usar entradas y
respuestas pasadas para ayudarles a hacer mejores conjeturas en
futuros intentos El algoritmo de búsqueda de Google y los filtros de
correo no deseado son ejemplos
de aplicaciones de aprendizaje automático. Y luego tenemos el aprendizaje profundo, que es un subconjunto del aprendizaje
automático. Utiliza algoritmos para permitir que
los modelos se entrenen
y realicen tareas. AlphaGo y el reconocimiento de
voz natural son dos ejemplos
de aprendizaje profundo El aprendizaje profundo
a menudo se asocia con redes
neuronales que son
un tipo de modelo de caja negra. Como modelo de caja negra, es
difícil para
los humanos rastrear
cómo los modelos de aprendizaje profundo
hacen sus predicciones. Sin embargo, los modelos de
aprendizaje profundo
aún pueden ser muy efectivos para
realizar tareas. Tendremos una inmersión más profunda en el mundo del
aprendizaje profundo más adelante. Ahora veamos cómo funciona el aprendizaje
automático. Para entender cómo funciona el aprendizaje
automático, echemos un vistazo
al siguiente diagrama. En el primer paso, comenzamos
por capacitar nuestros datos. Luego alimentamos los datos entrenados en un
algoritmo de aprendizaje automático para su procesamiento. Los datos del proceso
pasan por otro algoritmo de
aprendizaje automático. Y ahora es el momento de poner
a prueba nuestro trabajo. Traemos algunos datos nuevos
y los ejecutamos a través
del mismo algoritmo. En el siguiente paso,
verificamos las predicciones
y los resultados. Si tenemos algún dato de
formación de reserva, ahora es el momento de utilizarlos. En el siguiente paso, si la
predicción no se ve bien, digamos que consigue
los pulgares hacia abajo, es hora de dar la vuelta
y volver a entrenar el algoritmo Recuerda, no siempre se
trata de obtener la
respuesta correcta de inmediato. El objetivo es seguir intentando
una mejor respuesta. Puede que encuentres que el
resultado inicial no es lo que querías. Eso está bien. Es
parte del proceso. Y puede depender del
campo en el que estés trabajando,
ya sea en salud, economía ,
negocios, bolsa
o algo más. Los resultados pueden ser
muy diferentes. Entonces tenemos que probar el modelo, y si no
nos está dando el resultado que
necesitamos o si pensamos que podemos
lograr mejores resultados, volvemos a entrenar nuestro modelo Y en el paso final, seguimos refinando y reentrenando hasta obtener la mejor respuesta
posible Así es como funciona
el aprendizaje automático. Ahora veamos diferentes
tipos de aprendizaje automático. Podemos ver que
hemos supervisado,
no supervisado , y aprendizaje de
refuerzo Entraremos en cada uno, nos haremos una buena idea de cuándo y dónde usarlos y de
qué se tratan. En el aprendizaje automático,
utilizamos muchos algoritmos
diferentes para
lidiar con problemas difíciles. Cada uno encaja en
un determinado tipo. Así que tenemos tres tipos principales algoritmos
de aprendizaje automático, supervisado, aprendizaje
no supervisado
y aprendizaje por refuerzo Ahora vamos a adentrarnos en lo que realmente significan cada uno de estos
métodos de aprendizaje. aprendizaje supervisado utiliza
datos etiquetados para entrenar modelos de
aprendizaje automático. Los datos etiquetados significan que la salida
ya es conocida por nosotros. El modelo solo necesita mapear
las entradas a las salidas. Un ejemplo de
aprendizaje supervisado puede ser entrenar una máquina que identifique
las imágenes de los animales. Aquí, podemos ver un modelo entrenado que identifica
la imagen de un gato. aprendizaje no supervisado utiliza datos sin etiquetar
para entrenar máquinas Los datos sin etiquetar significan que no
hay una variable de
salida fija El modelo aprende de los datos, descubre patrones y
características en los datos y devuelve la salida En este ejemplo, nuestro modelo
sin supervisión utiliza las imágenes de los vehículos para clasificar si es
un autobús o un camión De manera que el modelo aprende
identificando las partes de un vehículo, como la longitud y
anchura del vehículo, las cubiertas delanteras y
traseras, el techo, capós, los tipos de llantas utilizadas y muchas otras características. Con base en estas características, el modelo clasifica si el
vehículo es un autobús o un camión Y tenemos aprendizaje
de refuerzo. aprendizaje por refuerzo
entrena la máquina para tomar las acciones
adecuadas y maximizar recompensa en una situación
particular. Utiliza un agente y un ambiente para producir
acciones y recompensas. El agente tiene un estado inicial
y un estado final, pero puede haber
diferentes partes para llegar al
estado final como un laberinto. En esta técnica de aprendizaje, no
existe una variable
objetivo predefinida. Un ejemplo de
aprendizaje por refuerzo es entrenar una máquina que pueda identificar
la forma de un objeto, dada una lista de diferentes
objetos como cuadrado, triángulo, rectángulo
o círculo. En este ejemplo, el modelo
intenta predecir la forma del
objeto, que es un cuadrado. Ahora veamos diferentes algoritmos de
aprendizaje automático que vienen bajo estas técnicas de
aprendizaje. Algunos de los algoritmos de aprendizaje
supervisado comúnmente utilizados son regresión polinómica, bosques
aleatorios, regresión
lineal, regresión
logística,
vecinos más cercanos a la
cadena, base ingenua, máquinas de vectores de
soporte Y estos son sólo
algunos ejemplos de algoritmos utilizados para el aprendizaje
supervisado. Hay tantos
otros algoritmos que se utilizan en el aprendizaje
automático. Para el
aprendizaje no supervisado, algunos de los algoritmos ampliamente utilizados son agrupamiento de
medias K , descomposición de
valores singulares, medias
difusas, cuadrados parciales, a priori, agrupamiento jerárquico, análisis de componentes
principales y escaneo componentes
principales Del mismo modo, hay
tantos otros algoritmos que se pueden utilizar para el aprendizaje
no supervisado Y algunos de los algoritmos de
aprendizaje por
refuerzo importantes algoritmos de
aprendizaje por
refuerzo son el aprendizaje Q, SARSA, Monte Carlo
y las redes Q profundas Entonces, como dijimos, hay tantos
algoritmos diferentes disponibles para nosotros, y elegir el
algoritmo correcto depende
del tipo de problemas
que estemos tratando de resolver. Ahora veamos el enfoque
en el que funcionan estas técnicas de
aprendizaje automático. Por lo que los métodos de
aprendizaje supervisado necesitan supervisión
externa para entrenar modelos de aprendizaje
automático, y por lo tanto, viene el
nombre supervisado. Necesitan orientación e información
adicional
para devolver el resultado. Toma entradas etiquetadas y las
asigna a salidas conocidas, lo que significa que ya
conoces la variable objetivo. Las técnicas de aprendizaje no supervisadas no necesitan supervisión alguna
para entrenar ningún modelo Aprenden por su cuenta
y predicen la salida. Encuentran patrones
y entienden las tendencias en los datos
para descubrir la salida. Entonces el modelo intenta etiquetar los datos en función de las
características de los datos de entrada. Y de manera similar, los métodos de
aprendizaje por refuerzo no necesitan ninguna supervisión para entrenar modelos de
aprendizaje automático. El aprendizaje por refuerzo
sigue
el método de prueba y error para obtener
la solución deseada. Después de cumplir una tarea, el agente recibe un premio Un ejemplo podría ser entrenar a
un perro para que atrape la pelota. Si el perro aprende
a atrapar una pelota, le darás una
recompensa, como una golosina. Y con eso, centrémonos
en aplicaciones y tipos de problemas que pueden
resolverse utilizando estos tres tipos de técnicas de
aprendizaje automático. Por lo tanto, el
aprendizaje supervisado
se usa generalmente para problemas de clasificación
y regresión. Por ejemplo, puede
predecir el clima para un día en particular en
función de los valores de humedad, precipitación, velocidad del viento
y presión. Como en otro ejemplo, puedes usar algoritmos de
aprendizaje supervisado pronosticar las ventas para el próximo mes o próximo trimestre para
diferentes productos. De igual manera, se puede utilizar
para el análisis del precio de las acciones o para identificar si una
célula cancerosa es maligna o benigna. aprendizaje no supervisado se utiliza para problemas agrupación y
asociación Por ejemplo, puede hacer segmentación de
clientes, que es segmentar
y agrupar clientes
similares en grupos en
función de su comportamiento,
gustos, disgustos Otro ejemplo para
las aplicaciones del aprendizaje
no supervisado es el análisis de rotación de
clientes, que es un proceso
de evaluar y
comprender por qué y cuándo los clientes dejan de hacer
negocios con una Con el objetivo de desarrollar estrategias para mejorar la retención de
clientes. Y por último, tenemos aprendizaje
de refuerzo. El aprendizaje por refuerzo
se basa en la recompensa. Entonces, por cada tarea o cada
paso completado correctamente, habrá una recompensa
recibida por el agente. Y si la tarea no se
logra correctamente, habrá algún
tipo de penalización. Ahora veamos algunos ejemplos. Los algoritmos de aprendizaje por refuerzo son ampliamente utilizados en
la industria del juego para construir juegos. También se utiliza para entrenar
robots para realizar tareas humanas. Los chatbots de IA multipropósito como
hat GPT o Google Bart utilizan aprendizaje de
refuerzo para
aprender de la entrada del usuario y ajustar su salida
en función de conversaciones anteriores Y con eso, hemos llegado
al final de esta sección sobre supervisado versus
no supervisado versus aprendizaje por
refuerzo Ahora, veamos cuáles son
los requisitos previos del aprendizaje
automático Entonces el primero son los fundamentos de la
informática
y la programación Muchas
aplicaciones de aprendizaje automático hoy en día requieren una base sólida en el
scripting básico o la programación No se trata solo de
escribir algoritmos complejos, sino de poder entender y manipular las estructuras
subyacentes. Sin una buena comprensión de
estas habilidades fundamentales, será un desafío aprovechar
al
máximo las herramientas de
aprendizaje automático disponibles. Entonces, si estás
considerando seriamente sumergirte en el aprendizaje automático, es recomendable repasar
tus habilidades de programación. Conocimientos
estadísticos intermedios. una comprensión fundamental de necesita una comprensión fundamental de
las probabilidades en el
mundo del aprendizaje automático A menudo te encontrarás
haciendo preguntas como, si A está sucediendo, ¿cuál es la probabilidad de
que ocurra B? O si hay nubes por encima, ¿cuáles son las posibilidades de
que llueva? Este tipo de preguntas, arraigadas en la probabilidad, están en el corazón de muchos algoritmos de
aprendizaje automático. Se trata de predecir resultados basados en condiciones
dadas Entonces, si estás interesado en hacer avances
significativos
en el aprendizaje automático, definitivamente vale la pena
familiarizarte con los conceptos básicos de una
estadística y probabilidad Álgebra lineal y cálculo
intermedio. álgebra lineal es clave
ya que requiere
comprender el concepto de trazar una línea a través sus puntos de datos y
comprender lo que Esta es la idea principal detrás los modelos de regresión
lineal donde dibujas una línea a través de tus datos y usas esta línea para calcular nuevos valores. En cuanto al
cálculo intermedio, implica tener una comprensión básica
de las ecuaciones diferenciales No es necesario ser un maestro en ello, ya que la computadora maneja la mayoría
de los cálculos pesados, pero es beneficioso reconocer la terminología cuando aparece, especialmente si estás
profundizando en la programación de modelos. Y pesca y limpieza de datos. Quizás uno de los aspectos más
significativos en este campo es dominar el
arte de poner en orden tus datos A menudo se dice
que si ingresas datos malos, sacarás datos malos. Pero si tienes buenos datos adentro, es más probable que
tenga buenos datos fuera. La calidad de sus
datos puede
influir en gran medida en el resultado de sus modelos de aprendizaje
automático. Por lo tanto, comprender cómo limpiar y organizar
sus datos de
manera efectiva se convierte en una habilidad
crítica para garantizar la precisión y
confiabilidad de sus resultados. Ahora veamos algunos ejemplos de aplicaciones
de machine learning. Contamos con detección de objetos
y segmentación de instancias. La detección de objetos y la segmentación de
instancias son dos
tareas diferentes pero relacionadas en el aprendizaje automático La detección de objetos consiste en
reconocer y encontrar elementos dentro de una imagen como distinguir a diferentes
gatos, por ejemplo. Por otro lado, la
segmentación de instancias es el siguiente paso que separa estos objetos identificados
del resto de la imagen Estas técnicas se ponen
en uso de diversas maneras, incluyendo la identificación de diferentes
elementos en una imagen. Además, la segmentación
puede aislar o cortar componentes
específicos Una aplicación popular
de detección y
segmentación de objetos es la función de instantánea
rápida de teléfonos Google Pixel Esta función utiliza el
aprendizaje automático para identificar objetos en vista actual de
un usuario
y luego superponer pegatinas
animadas o filtros
encima de esos objetos. Esta puede ser una forma divertida
y creativa agregar un
toque personal a las fotos. También contamos con detección de
matrículas. Este es un
uso bastante genial del aprendizaje automático. Imagínese un automóvil conduciendo a la
vista y el sistema es
capaz de detectar e identificar la
placa de ese automóvil. Esta aplicación de
aprendizaje automático puede ser particularmente útil en diversas situaciones
como puntos de control de seguridad, estacionamientos, control de tráfico, o incluso para cobrar
peajes sin hacer que el automóvil se detenga en
medio de una autopista Muestra cómo el
aprendizaje automático puede extraer información
específica de un contexto
más amplio con precisión Y también tenemos traducción
automática. La traducción automática, impulsada
por el aprendizaje automático, ha sido un cambio de juego para romper las
barreras del idioma Es la fuerza impulsora detrás la traducción instantánea que
ves en sitios web extranjeros, haciendo que el contenido sea accesible en tu idioma preferido
con solo un clic. También es la tecnología que permite a herramientas
como Google Lens proporcionar traducciones en
tiempo real de los letreros cuando
apuntas tu cámara hacia ellos. Ya sea navegar por Internet o navegar por
una ciudad extranjera, aprendizaje
automático
ha revolucionado nuestra capacidad de entender
e interactuar con Verdaderamente, la traducción automática es un testimonio impresionante de cómo el aprendizaje
automático puede acercar al mundo. Gracias por
ver este video. El mundo de las aplicaciones de
aprendizaje automático es vasto y en constante evolución. Es uno de los sectores de más rápido
crecimiento en tecnología, y las posibilidades
son infinitas. Lo que les he mostrado aquí son solo algunos de
los aspectos más destacados, una pequeña muestra de
lo que es posible. Pero hay
mucho más por venir. En el siguiente video,
cambiaremos años y
exploraremos el aprendizaje profundo, un campo suave del
aprendizaje automático que hizo
posible muchos de los avances del aprendizaje automático los avances del aprendizaje automático. Nos vemos
en la siguiente.
4. L1V3: aprendizaje profundo: En este video, hablaremos sobre deep learning
y redes neuronales. Alguna vez te has preguntado
cómo Google puede traducir una página web completa en poco tiempo de casi cualquier
idioma a otro, o cómo Google Photos ordena
mágicamente tus imágenes en función de los rostros de personas y mascotas
que reconoce ¿O qué tal cuando Google
Lens te informa los
detalles de una planta, objeto o animal cuando lo
escaneas con tu teléfono? Eso es aprendizaje profundo trabajando
su magia ahí mismo. En este video,
intentemos responder a la
pregunta de qué es aprendizaje
profundo y cómo
hace posible todas estas
cosas increíbles. En este video, estaremos
discutiendo los siguientes temas. Comenzaremos con una
comprensión del aprendizaje
profundo y luego pasaremos a las redes
neuronales artificiales, que son un tipo de algoritmo de aprendizaje
automático que se utilizan en el aprendizaje profundo. Luego exploraremos algunos
de los usos prácticos del aprendizaje
profundo e introduciremos algunas de las plataformas de
aprendizaje profundo más populares. Y finalmente, discutiremos
algunas de las limitaciones del aprendizaje
profundo y cómo computadoras
cuánticas pueden
abordar esas limitaciones. Va a ser una emocionante
sesión de aprendizaje profundo. Entonces, como dijimos anteriormente, aprendizaje
profundo es un subconjunto
del aprendizaje automático, y ambos forman parte
del concepto más grande llamado inteligencia
artificial. Imagina la
inteligencia artificial como todo
el reino de hacer que
las máquinas actúen como humanos. El aprendizaje automático es
parte de ese ámbito, y se trata de
dar a las máquinas la capacidad de aprender y
tomar decisiones basadas en datos, algo así como cómo
aprendemos de la experiencia. Ahora, el aprendizaje profundo es una parte más específica
del aprendizaje automático. Es como enseñar a una máquina a pensar un poco
como un cerebro humano con una estructura llamada red neuronal
artificial. Las redes neuronales artificiales o
ANN son un tipo específico de algoritmo de aprendizaje
automático que intenta imitar vagamente
las redes neuronales en el Cuando decimos aprendizaje profundo, generalmente
estamos
hablando de usar redes neuronales
realmente grandes para entrenar un modelo sobre cargas de datos. No es diferente
del aprendizaje automático, solo un término más elegante que usamos cuando las cosas se ponen
bastante a gran escala Entonces, ¿qué son las redes
neuronales artificiales? Echemos un vistazo más de cerca a la construcción de
una red neuronal. Cada capa consiste en nodos
o lo que llamamos neuronas. Las neuronas en una
capa se conectan con las neuronas de la siguiente
capa a través de canales. cada canal se
le asigna un peso, lo que juega un papel importante
en el aprendizaje de la red. Cada neurona tiene
un sesgo asociado y una función de activación La función de activación se utiliza para transformar
la suma ponderada de las entradas y el sesgo en una salida que se envía
a la siguiente capa. Como dijimos antes, los ANN se sientan
en el núcleo del aprendizaje profundo. Estos algoritmos se elaboran de una manera que refleja el
funcionamiento del cerebro humano. Absorben datos, aprenden a
identificar patrones en los datos y luego hacen predicciones educadas
para un nuevo conjunto de datos. Exploremos el
proceso construyendo una red neuronal capaz de distinguir entre
un cubo y una pirámide Considera como ejemplo
una imagen de un cubo. Esta imagen está
compuesta por 28 por 28 píxeles, lo que resulta en un total
de 784 píxeles. Cada píxel se proporciona entonces como entrada a neuronas individuales
dentro de la primera capa. Las neuronas en una capa
están conectadas a las neuronas en
capas posteriores a través de canales. Las entradas se multiplican por
sus pesos correspondientes, y luego se le
agregará el sesgo. Este valor combinado luego se somete a evaluación a través de
una función de umbral, conocida como la función de
activación El resultado se transmite como entrada a la neurona
dentro de la capa oculta Entonces la salida de la
función de activación determina si una neurona se
activa o no Las neuronas activadas
transmiten datos a las neuronas en la siguiente
capa a través del canal. Este proceso iterativo conocido como propagación
directa
permite que los datos se propaguen
a través de
la red Dentro de la capa de salida, la neurona con
el valor más alto se activa y
determina la salida final Estos valores son
esencialmente probabilidades. En este escenario particular, la neurona asociada a la pirámide tiene la
mayor probabilidad, lo que indica que
la red neuronal predice la salida
como una Bueno, obviamente, nuestra red neuronal ha hecho
una predicción incorrecta. Es importante señalar
que en esta etapa, nuestra red aún no ha
recibido capacitación. Entonces echemos un vistazo a los pasos para entrenar
una red neuronal. Durante el proceso de capacitación, la red recibe
tanto la entrada la salida esperada. Al comparar la
salida prevista con la salida real, la red identifica el
error en su predicción. La magnitud del error
indica lo equivocados que estamos, y el signo sugiere si nuestros valores predichos son
mayores o menores de lo esperado. Esta información se
propaga entonces hacia atrás
a través de la red, una técnica que se conoce
como retropropagación A través de
la retropropagación, la red ajusta sus parámetros
internos, como los pesos
y sesgos para minimizar el error y mejorar
sus predicciones futuras El ciclo iterativo de propagación
hacia adelante y propagación hacia atrás se repite con múltiples entradas durante
el proceso de entrenamiento Este ciclo continúa hasta que los pesos dentro de la
red se ajustan de
manera que permite a la red predecir
con precisión las formas
en la mayoría de los casos. Esto marca la finalización
de nuestro proceso de capacitación, donde la red ha aprendido a hacer predicciones correctas. Si bien entrenar redes
neuronales puede ser un proceso que consume mucho tiempo, a veces tardando
horas o incluso meses, la inversión de tiempo se justifica dadas las inmensas
posibilidades que ofrecen. La naturaleza intrincada del
entrenamiento implica
afinar numerosos parámetros y optimizar el rendimiento de la
red, lo que requiere importantes recursos
computacionales
y paciencia Sin embargo, los beneficios
obtenidos de una red
neuronal bien entrenada, como la precisión mejorada, reconocimiento
avanzado de patrones y sofisticada toma de
decisiones superan el tiempo dedicado al entrenamiento Es un
intercambio razonable considerando
el notable potencial y las capacidades que las
redes neuronales aportan a la mesa. Ahora echemos un vistazo a algunas de las aplicaciones
del aprendizaje profundo. Como dijimos antes,
es el poder de las redes
neuronales lo que hace posible el aprendizaje
profundo. Exploremos algunas de
las aplicaciones clave donde brillan las redes
neuronales. Un ejemplo notable es tecnología de reconocimiento
facial en teléfonos inteligentes, que utiliza
redes neuronales para estimar la edad de
una persona en función de
sus rasgos faciales. Al distinguir el rostro
del fondo y
analizar líneas y manchas, estas redes correlacionan las señales visuales
para aproximarse a
la edad de la persona Las redes neuronales también juegan un papel
crucial en la previsión, permitiendo predicciones precisas en diversos dominios, como pronóstico del tiempo o el análisis de precios
de acciones Estas redes funcionan muy
bien en el reconocimiento de patrones, haciéndolas capaces de identificar
señales que indican la probabilidad de lluvias o fluctuaciones en los precios de las acciones. Las redes neuronales pueden incluso
componer música original. Pueden aprender
patrones intrincados en la música y refinar su comprensión para
componer melodías originales, mostrando su Y otra área donde redes
NRA Excel
es la atención al cliente Muchas personas entablan
conversaciones con agentes de
atención al cliente sin siquiera darse cuenta de que en realidad están
interactuando con un bot. Estas sofisticadas
redes simulan un diálogo
realista y
brindan asistencia, mejorando la experiencia de
servicio al cliente. También en el campo
de la atención médica, las redes
neuronales han logrado avances
significativos Tienen la capacidad de detectar células
cancerosas y
analizar imágenes de resonancia magnética, proporcionando resultados detallados
y precisos que ayudan en las decisiones de diagnóstico
y tratamiento. Y obviamente, también
tenemos autos autoconducidos. Alguna vez sólo una posibilidad
en la ciencia ficción, ahora se convierten en una realidad
tangible. Estos
vehículos autónomos dependen redes
neuronales para percibir e interpretar el entorno, lo que les permite navegar por las carreteras, tomar
decisiones y
garantizar la seguridad de los pasajeros. Y con eso, echemos un
vistazo a algunos marcos populares de
aprendizaje profundo. Entonces, algunos de estos marcos
son flujo tensor, Pytorch,
cross, Deep learning four J, Cafe y Microsoft
Cognitive Estos marcos han ganado amplio reconocimiento y juegan un papel importante en el
avance del campo
del aprendizaje profundo. Y ahora vamos a discutir algunas de las limitaciones
del aprendizaje profundo. Si bien el aprendizaje profundo tiene
una tremenda promesa, también es importante reconocer
sus limitaciones. Entonces, en primer lugar, aunque el aprendizaje
profundo es altamente efectivo en el
manejo de datos no estructurados, pero necesita una cantidad
sustancial de datos para fines de capacitación El segundo problema es que incluso suponiendo que tenemos acceso
a los datos requeridos, procesarlos puede ser un desafío debido al poder
computacional entrenamiento de redes neuronales exige el uso de unidades de
procesamiento gráfico o GPU que tienen miles de núcleos en comparación con las unidades centrales de
procesamiento o CPU Y al mismo tiempo, las GPU son mucho más
caras que las CPU Y finalmente, el entrenamiento
lleva mucho tiempo. Las redes neuronales profundas pueden requerir horas o incluso meses
para entrenar con la duración aumentando a
medida que aumenta el volumen de datos y el número de capas de
red. Dicho esto, cabe
mencionar que las computadoras cuánticas
desarrolladas por empresas como Google e IBM ofrecen una solución potencial para
superar estas limitaciones. Las computadoras cuánticas tienen
la capacidad de realizar cálculos
complejos a una velocidad exponencialmente más rápida
que las computadoras clásicas Con su
arquitectura única y unidades de procesamiento
cuántico o QP, tienen el potencial de
acelerar significativamente el
proceso de entrenamiento de las redes neuronales Además, las
computadoras cuánticas pueden manejar
conjuntos de datos a mayor escala de manera más efectiva. Reducir los
requisitos de datos y mitigar
los desafíos asociados con procesamiento de
cantidades tan grandes de información Si bien la computación cuántica
aún se encuentra en sus etapas iniciales, investigación y el
desarrollo en
curso tienen la promesa de superar las limitaciones que
enfrentan los enfoques tradicionales de
aprendizaje profundo. Gracias por explorar el mundo del
aprendizaje profundo conmigo. Es crucial
reconocer que todavía
estamos en las primeras etapas
de explorar lo que
el aprendizaje profundo y las redes neuronales
pueden hacer por nosotros. Sin embargo, grandes nombres como Google, IBM y Nvidia han reconocido
esta trayectoria de crecimiento, invirtiendo en el desarrollo de bibliotecas, modelos predictivos y potentes GPU para apoyar la implementación
de redes neuronales Estamos casi al final de esta sección sobre inteligencia
artificial tradicional. Es importante tener en cuenta que simplemente
hemos arañado la superficie cuando se trata del potencial del
aprendizaje profundo y la IA Posibilidades emocionantes
están por delante. A medida que avanzamos los límites
de lo posible, la línea entre la
ciencia ficción y realidad se vuelve
cada vez más borrosa El futuro tiene una
sobrecarga de sorpresas, y el aprendizaje profundo está a la vanguardia de estos avances
pioneros En el siguiente video, que es el último video
de esta sección, aprenderemos la
diferencia entre modelos de
machine learning
discriminativo y generativo, lo que nos preparará para la
siguiente sección de este curso sobre inteligencia artificial generativa Nos vemos en la siguiente.
5. L1V4: discriminativo versus generativo: En este video,
vamos a hablar discriminativos y
generativos Estos son dos tipos importantes
de modelos de aprendizaje automático. Para que sea más fácil de entender, comenzaremos con la historia y luego discutiremos cómo funcionan
estos dos tipos de aprendizaje
automático en detalle usando
algoritmos populares como ejemplos. Así que vamos a saltar de inmediato. Todo bien. Vamos a
sumergirnos en nuestra historia. Imaginemos que tenemos
dos visitantes alienígenas que nunca antes habían visto manzanas
y plátanos. Queremos observar
cómo aprenden a distinguir entre
estos dos frutos. El primer extraterrestre decide entender estos frutos
dibujándolos. Observa cuidadosamente
la forma, el color y la textura de cada fruto, y luego
los recrea en papel. De esta manera, crea una representación visual o un modelo de cómo se ve cada
fruto. Siempre que ve un nuevo fruto, se refiere a estos dibujos
para identificar ese fruto. Esto es similar a lo que llamamos un algoritmo generativo
en el aprendizaje automático El segundo alienígena,
por otro lado, lo
hace de otra manera. En lugar de dibujar, comienza comparando las características
de los frutos. Se nota que las manzanas
suelen ser redondas y rojas mientras que
las bananas son largas y amarillas. Cuando se le da una fruta nueva, no busca
una combinación perfecta. En cambio, comprueba qué características de
frutas están más cerca de la nueva fruta y adivina que
es la misma. Este enfoque se parece
más a lo que
llamamos un
algoritmo discriminativo en el aprendizaje automático Entonces esa es la idea básica. Estos dos
enfoques diferentes nos ayudarán a comprender los algoritmos discriminativos
y generativos Avanzando, definamos formalmente nuestros dos tipos de algoritmos
basados en nuestro enfoque alienígena. El primer método
alienígena es un excelente ejemplo de lo que llamamos
clasificación generativa Aquí es donde un modelo aprende a generar una representación
de cada clase. Es como aprender cómo
se ve
una manzana o un plátano y usar ese conocimiento para identificar la instancia futura. En contraste, el
segundo método de los extranjeros representa una
clasificación discriminativa Este modelo aprende a distinguir entre clases
en función de sus características. En lugar de aprender cómo es una
manzana o un plátano
, aprende las diferencias
entre ellos. Luego usa estas diferencias para decidir qué podría ser un
nuevo fruto. Cada enfoque tiene sus propias
fortalezas y debilidades, y se utilizan en
diferentes escenarios. Ahora que hemos
introducido los conceptos, vamos a explorarlos
con más profundidad. Para comprender mejor estos conceptos, vamos a discutir algoritmos
específicos que emplean estos dos
tipos de clasificaciones Para la
clasificación discriminativa, estamos viendo la
regresión logística como ejemplo Y para la
clasificación generativa, nuestro ejemplo será el algoritmo base
ingenuo Entonces, en el ámbito de la clasificación
discriminativa, regresión
logística crea
un límite de decisión basado en las características
de la entrada Para nuestro ejemplo de fruta, estas características podrían ser el
color, la longitud o el peso. El algoritmo aprende
patrones a partir de estas características y luego
los usa para clasificar nuevos frutos contrario, el algoritmo
base ingenuo, que es un modelo de
clasificación generativa, intenta comprender
la distribución de cada clase en
el espacio de entidades En lugar de solo identificar las diferencias entre clases, aprende cómo
se
distribuye cada clase en los datos. Ahora, profundicemos
y entendamos cómo estos algoritmos utilizan las
estrategias para clasificar nuevos datos Con el modelo de
regresión logística, estamos tratando con
características como el color, longitud y el peso
de los frutos. El modelo utiliza estas características para aprender patrones
y tomar decisiones. Por ejemplo,
podría aprender que si una fruta tiene un color amarillo
y tiene más de 5 “, hay una alta probabilidad de
que sea un plátano. Este método de creación de un límite de
decisión basado en características de ejemplos es la esencia del aprendizaje
discriminativo otro lado, el aprendizaje
generativo utilizado por el modelo base ingenuo
intenta comprender la distribución de cada clase en un plano multidimensional como un espacio tridimensional para nuestras tres características frutales El modelo intenta visualizar dónde es probable que
aparezcan manzanas y
plátanos en este espacio en función su color, forma y peso. Ahora, pensemos en
algunas preguntas importantes sobre los modelos generativos y
discriminativos Preguntas como ¿qué modelo
necesita más datos para la capacitación? ¿Cuál se ve afectado
por la falta de datos? Qué modelo se
ve impactado por los valores atípicos, que requiere más matemáticas, y cuál tiende a Es importante pensar estas preguntas porque afectan la forma en que podrías elegir
usar estos modelos. Por ejemplo, un
modelo generativo no necesita muchos datos porque solo trata de
entender las
características básicas de cada clase Sin embargo, un
modelo discriminativo necesita más datos porque trata de aprender las intrincadas diferencias
entre las clases Pensar en estas preguntas
puede ayudarte a entender estos modelos más profundamente y
usarlos de manera más efectiva. Pero no te preocupes si
no estás seguro de las respuestas. Los vamos a discutir
a detalle. Entonces veamos
la primera pregunta. ¿Qué modelo necesita más
datos para la capacitación? Los modelos discriminativos
como la regresión logística, generalmente necesitan más
datos para el entrenamiento Aprenden identificando
diferencias entre clases. Por lo que necesitan un conjunto rico
y diverso de ejemplos para hacerlo de
manera efectiva. La segunda pregunta es, cuál se ve afectada
por la falta de datos? El caso es que ambos tipos de modelos pueden verse afectados
por la falta de datos. Pero los modelos generativos
pueden ser más sensibles porque están
tratando de capturar la distribución general
de los datos Cualquier
información faltante podría sesgar su comprensión
de esa distribución La siguiente pregunta es, ¿qué modelo
se ve impactado por los valores atípicos? Nuevamente, los valores atípicos pueden
afectar a ambos modelos, pero los modelos discriminativos
podrían ser Estos modelos se centran en
los límites entre clases, y una capa externa podría cambiar
significativamente
esos límites La siguiente pregunta es, ¿cuál
requiere más matemáticas? En términos de matemáticas, los modelos
generativos como base
ingenua a menudo requieren más cálculos porque implican estimar la
distribución de los datos, que pueden ser Y la última pregunta es, ¿cuál tiende a sobreadaptarse? El sobreajuste puede ocurrir
en ambos modelos, pero los modelos discriminativos
generalmente son más propensos a ello Esto se debe a que pueden llegar a estar
demasiado sintonizados con los datos de entrenamiento, aprendiendo incluso es
ruido y errores. Y ahora que conocemos
la diferencia entre discriminativo y generativo algoritmos de aprendizaje
automático
discriminativo y generativo, desglosemos algunos
ejemplos comunes de cada tipo Entonces, algunos de los algoritmos discriminativos
son regresión logística, máquinas de vectores de
soporte, árboles de
decisión, bosques
aleatorios y máquinas de aumento de
gradiente Algunos de los
algoritmos generativos son base
ingenua, modelos de
mezcla gaussiana, modelos
ocultos de Markov, asignación directa
latente y redes generativas adversarias. base
ingenua, modelos de
mezcla gaussiana, modelos
ocultos de Markov, asignación directa
latente y redes generativas adversarias. Entonces, para terminarlo, en este video, hemos desempacado la palabra de modelos
discriminativos y
generativos usando una historia simple y
atractiva Hemos visto cómo la regresión
logística en un modelo discriminativo utiliza características
distintas para crear límites de
decisión, mientras que el modelo generativo, base
ingenua, intenta comprender la
distribución general de los Comprender la
diferencia entre modelos
discriminativos y
generativos nos da una
valiosa visión de cómo operan los sistemas de IA
generativa Los modelos generativos como
los utilizados en la IA generativa, aprenden la distribución subyacente de los datos
de entrenamiento Este conocimiento se utiliza
entonces para generar nuevos datos que reflejen
los datos de entrenamiento. Es por ello que la
IA generativa es tan poderosa. Puede generar nuevas
salidas realistas como imágenes, texto e incluso música porque
entiende el mundo
de sus datos de entrenamiento. En contraste, los modelos
discriminativos simplemente aprenden los límites entre clases y se utilizan
principalmente para tareas de
clasificación No pueden generar nuevos
datos porque no
intentan entender la
distribución subyacente de los datos, las diferencias entre clases. Al comprender
estas diferencias, puede apreciar mejor
la capacidad y flexibilidad de los sistemas
generativos de IA Esta comprensión podría
guiarlo a la hora de
decidir qué tipo de sistema de IA sería el más adecuado
para su
proyecto particular o caso de uso Y por eso, llegamos al final de
la Sección uno de este curso, la Inteligencia
Artificial tradicional. Te veo en la Sección dos, donde discutimos la inteligencia
artificial generativa
6. L2V1: transformadores: Ahora hablemos de los
transformadores y su papel protagónico en potenciación de la inteligencia
artificial generativa Los transformadores son un tipo de red
neuronal que son capaces de aprender
dependencias de largo alcance en secuencias Esto los hace muy adecuados para tareas como la generación de
texto, donde el modelo necesita
entender el contexto de las palabras anteriores
para generar la siguiente palabra. Transformers produjo
una revolución 2018 en el procesamiento del lenguaje natural. Ahora veamos cómo funcionan
los transformadores. Los transformadores se
componen de dos partes principales, un codificador y un decodificador. Los codificadores son
responsables de tomar una secuencia de entrada y convertirla en una
secuencia de estados ocultos El codificador está formado por una pila de capas de
autoatención. autoatención es un mecanismo
que permite al codificador atender diferentes partes de la secuencia de entrada al
generar los estados ocultos. Esto permite que el codificador aprenda dependencias de
largo alcance
en la secuencia de entrada, lo cual es esencial para tareas
como la generación de texto Los decodificadores son
responsables de tomar una secuencia de estados ocultos y generar una secuencia
de salida El decodificador también está formado por una pila de capas de
autoatención. Sin embargo, el decodificador también tiene una capa de
atención especial que le permite atender la secuencia de entrada al
generar la secuencia de salida. Esto permite que el decodificador aprenda
a
generar una salida que sea consistente con la secuencia
de entrada. Entonces el codificador y el decodificador trabajan juntos para generar
una secuencia de salida. El codificador primero convierte la secuencia de entrada en una
secuencia de estados ocultos. El decodificador toma entonces estos estados ocultos y
genera una secuencia de salida. La
capa de atención de los decodificadores le permite
atender la secuencia de entrada al
generar la salida Esto permite que el decodificador aprenda
a
generar una salida que sea consistente con la secuencia
de entrada. tiene varios beneficios uso de transformadores
para IA generativa Primero, los transformadores son capaces de
aprender dependencias de largo alcance en secuencias Esto les permite generar resultados
más realistas y
coherentes. Segundo, los transformadores son capaces de
ser entrenados en conjuntos de datos muy
grandes. Esto les permite aprender patrones y
relaciones
más complejos en los datos. Y tercero, múltiples transformadores
paralelos son capaces de trabajar juntos. Esto les permite ser entrenados de manera más rápida
y eficiente. Como resultado de estos beneficios, los transformadores
se han convertido en el enfoque de
vanguardia para una amplia variedad de tareas
generativas de IA,
como la generación de texto, la generación imágenes y la generación de
música Algo a tener en cuenta
al usar transformadores es que les es posible
crear alucinaciones En transformadores, las alucinaciones
son palabras o frases que son generadas por
el modelo que a menudo
son sin sentido o gramaticalmente incorrectas Pero, ¿por qué ocurren las alucinaciones? Las alucinaciones pueden ser causadas
por una serie de factores, incluyendo que el modelo no está
entrenado con suficientes datos, o el modelo se entrena
en datos ruidosos o sucios, o al modelo no se
le da suficiente contexto, o al modelo no se le dan Las alucinaciones pueden ser un
problema para los transformadores porque pueden hacer el texto de salida sea
difícil También pueden hacer que el
modelo sea más propenso a generar información incorrecta o
engañosa. Entonces, ¿cómo podemos mitigar las
alucinaciones? Hay varias formas de
mitigar las alucinaciones Una forma es entrenar al
modelo con más datos. Otra forma es utilizar una
técnica llamada búsqueda de haz, que permite al
modelo explorar una gama más amplia de
posibles salidas. Y por último, es importante darle
al modelo
suficiente contexto y restricciones para que no genere una salida sin sentido o
gramaticalmente Aquí algunos ejemplos
de alucinaciones que han sido generadas por
transformadores El gato se sentó en la colchoneta
y el perro se comió la luna. El chico fue a la tienda
y compró un galón de aire. La mujer condujo al banco
y retiró un millón de dólares. Como puede ver,
estos ejemplos son todos sin sentido o
gramaticalmente incorrectos Esto se debe a que los transformadores han generado estas palabras o frases sin ningún
contexto ni restricciones. Es importante señalar que las alucinaciones no
siempre son algo malo En algunos casos,
pueden ser utilizados para generar textos creativos e
interesantes. Sin embargo, es importante
estar consciente del potencial alucinaciones al
usar transformadores y tomar medidas
para mitigarlas Los transformadores
se están utilizando para generar una amplia variedad de contenido
creativo, incluyendo texto, imagen,
música e incluso video. Algunas de las
aplicaciones más comunes de los transformadores en IA generativa incluyen la generación de
texto Los transformadores se pueden utilizar para generar textos
como artículos de noticias, publicaciones de
blog y escritura
creativa. Por ejemplo, el modelo
transformador, GPT tres se ha utilizado para generar artículos de noticias
falsas de aspecto realista, e incluso puede escribir
poesía e historias Generación de imágenes.
Los transformadores se pueden utilizar para generar
imágenes como pinturas, fotografías y arte digital. Por ejemplo, el modelo
transformador Imagine se ha
utilizado para generar imágenes de aspecto
realista de
personas, animales y objetos. Generación de música.
Los transformadores se pueden utilizar para generar música, como canciones,
melodías y ritmos A modo de ejemplo, el modelo
transformador Mus Net ha podido generar
música original que suena como si estuviera compuesta
por un músico humano. Y tenemos generación de video. Los transformadores se pueden
utilizar para generar videos, como películas, programas de televisión
y dibujos animados. Por ejemplo, el video
del modelo transformador Deep Mind
se ha utilizado para generar video de aspecto
realista que
parece que fue filmado por un operador de cámara
humano. A medida que la tecnología
continúa desarrollándose, podemos esperar ver aplicaciones
aún más sorprendentes de transformadores
en IA generativa Los transformadores tienen
el potencial de
revolucionar la forma en que
creamos y consumimos contenido, y ya se
están utilizando para crear algunas cosas realmente
increíbles.
7. L2V2: IA de generación: Bienvenido a la Inteligencia
Artificial generativa. Comenzamos este video
explicando cómo
distinguir entre IA
generativa y
machine learning tradicional Luego brindamos una definición
formal para la inteligencia artificial
generativa y terminamos el video con algunos
ejemplos de IA generativa Aquí, estamos mostrando dos enfoques clave en la inteligencia
artificial, aprendizaje automático
tradicional y la inteligencia
artificial generativa La imagen superior muestra el aprendizaje automático
tradicional. Aquí, el modelo aprende de los datos con etiquetas
adheridas a él. Lo que hace es
averiguar el vínculo entre las características de los datos y sus etiquetas
correspondientes. Esta comprensión
se utiliza entonces para hacer conjeturas
educadas sobre nuevos
datos que no había visto antes Ahora la parte inferior de la imagen muestra algo
un poco diferente. El modelo generativo de IA. En lugar de simplemente averiguar
la relación entre entradas y salidas,
profundiza Se enfoca en el
patrón complejo en el contenido. Esta comprensión del
patrón es lo que le da el poder de crear contenido nuevo y
realista por sí solo. Esto podría ser cualquier cosa, un poema, un artículo de noticias, una imagen, o incluso una composición musical. Así ves que la IA generativa aporta un nuevo ángulo creativo al enorme mundo de
la IA La naturaleza de la producción
juega un papel crucial en la diferenciación entre IA
generativa y otros modelos Los modelos tradicionales
suelen producir resultados
categóricos o numéricos, como si un
correo electrónico es spam o
no o predecir cifras de ventas Por otro lado, la IA
generativa puede producir salidas como lenguaje
escrito o hablado,
imágenes, o incluso audio, reflejando su capacidad para generar contenido
que imita Podemos imaginarlo
así matemáticamente. Si esta ecuación no es
algo que hayas visto recientemente, aquí tienes un recordatorio rápido. La ecuación Y es igual a F de X calcula el resultado
basado en variables entradas Y simboliza el
resultado del modelo. F significa la función
que utilizamos en el cálculo. ¿Y qué pasa con X?
Eso representa las entradas o entradas
utilizadas en la ecuación. Entonces, en términos simples, la salida de los modelos es una
función de todas las entradas. La clave aquí es
comprender la naturaleza de la salida Y como una
función de las entradas X. Los modelos
tradicionales generalmente
producen resultados numéricos. Mientras que los modelos generativos de
IA pueden mapear esos valores numéricos a
diferentes formas de información, haciéndolos capaces de generar respuestas
complejas
como frases en lenguaje natural
o imágenes y videos Para resumir a un alto nivel, los procesos tradicionales de
aprendizaje
clásico supervisado y no supervisado, toman código de capacitación y etiquetan
datos para construir un modelo Dependiendo del
caso de uso o problema, el modelo puede
darte una predicción. Puede clasificar algo
o agrupar algo. La distinción radica
en la aplicación. Los modelos tradicionales
hacen predicciones, clasifican o agrupan datos, mientras que los modelos generativos de IA
son más versátiles, creando una amplia
gama de contenido El método generativo de IA puede funcionar con
código de entrenamiento, datos etiquetados y datos sin etiquetar de todo tipo para construir lo que
llamamos un modelo de base Este modelo de base puede
entonces producir nuevo contenido, como texto, código ,
imágenes, audio, video, etc. El poder de la IA generativa radica en su capacidad para ingerir
diversos tipos de datos,
incluidos datos sin etiquetar para construir modelos que
generen contenido fresco,
que se extiende más allá de las capacidades de los modelos tradicionales Hemos recorrido un largo
camino pasando de programación
tradicional
a las redes neuronales y ahora a los modelos generativos En los viejos tiempos de la programación
tradicional, teníamos que introducir manualmente las reglas para
diferenciar al gato. Tuvimos que incorporar
reglas específicas en el programa. Era algo así como si es un animal con cuatro
patas, dos orejas,
hada, y muestra un gusto
por el hilo y la catnip, entonces probablemente sea un gato Y teníamos que escribir
todo eso en
un lenguaje de programación
y no en un lenguaje natural. En el camino de las redes neuronales, podríamos mostrar las
imágenes de la red de gatos y perros, luego preguntar, ¿es esto un gato? La red probablemente
respondería con una
predicción, es un gato. Entonces podemos ver que
las redes neuronales permiten una toma de decisiones
más matizada
mediante el entrenamiento en ejemplos, lo que es una evolución
a partir de reglas de codificación duras En la onda generativa, podemos producir nuestro propio contenido, como texto, imágenes, audio, video, etcétera Modelos como Palm o
Pathways Language Model, modelo de lenguaje
Lambda para aplicaciones de
diálogo y GPT, transformador
preentrenado
generativo, consumen grandes cantidades de
datos de diversas fuentes, incluyendo Internet para construir modelos de
lenguaje básico, que se pueden utilizar simplemente
haciendo una pregunta, ya sea escribiendo en un mensaje
o hablando verbalmente en el
avisar a sí mismo. Entonces, si preguntamos qué es un CAT, puede darnos todo lo que
haya aprendido sobre el gato. IA generativa aumenta la interacción
del usuario, convirtiendo a los usuarios de meros
espectadores a creadores activos modelos como Palm, Lambda Destacan modelos como Palm, Lambda
y GPT. Están capacitados
en grandes conjuntos de datos y proporcionan respuestas inteligentes conscientes del
contexto. Este enfoque en el usuario hace que IA
generativa sea atractiva para una variedad de
aplicaciones diferentes Ahora vamos a proporcionar nuestra definición
formal. ¿Qué es la IA generativa? La IA generativa es un tipo de inteligencia
artificial que crea nuevo contenido
basado en lo que ha aprendido
del contenido existente El proceso de aprendizaje del contenido
existente se denomina capacitación y da como resultado
la creación de un
modelo estadístico cuando se le da un prompt. IA utiliza el modelo
para predecir cuál podría ser una respuesta
anepectada y esto genera nuevo contenido El énfasis aquí está en la heredabilidad de la
IA generativa para aprender y crear A diferencia de los modelos tradicionales, que predicen con base en relaciones
preestablecidas, IA
generativa se enfoca en comprender la
estructura subyacente de los datos de entrada Después del entrenamiento, el modelo puede generar
respuestas o contenido únicos, lo que
amplía significativamente las aplicaciones y capacidades de los sistemas de IA Esencialmente, aprende
la estructura subyacente de los datos y
luego puede generar nuevas muestras que son similares a
los datos en los que se entrenó. Entonces veamos cuál
es la diferencia
entre los modelos de lenguaje
y los modelos de imagen. Los modelos de lenguaje generativo aprenden sobre patrones en el lenguaje
a través de datos de entrenamiento Entonces dados algunos textos, predicen lo que viene después. Los modelos de imagen generativa producen nuevas imágenes utilizando
técnicas como la difusión Luego, dadas una pronta
o imágenes relacionadas, transforman el ruido aleatorio en imágenes o generan
imágenes a partir de las indicaciones Profundicemos un poco más
en cada uno de ellos. Como se mencionó anteriormente, los modelos de lenguaje
generativo se
enfocan en captar la estructura
inherente del patrón dentro
de los Luego aprovechan estos
patrones aprendidos para generar
respuestas o contenido novedosos. Que a menudo
se asemejan mucho a los datos originales. Estas características hacen que los modelos de lenguaje de
gran tamaño sean un ejemplo excepcional de potencial AIS
generativo Un modelo de lenguaje generativo
toma texto como entrada y puede generar más texto e imagen,
audio o decisiones Por ejemplo, bajo
el texto de salida, se genera respuesta a
preguntas, y bajo imagen de salida, se genera
video. Por lo que
los modelos de lenguaje grandes son un tipo de IA generativa
porque generan combinaciones
novedosas de textos en forma de lenguaje
sonoro natural También contamos con modelos de
imagen generativos, que toman una imagen como
entrada y pueden generar texto, otra imagen o video Por ejemplo, bajo
el texto de salida, se
puede obtener respuesta visual a
preguntas, que es una tarea en visión por
computador que implica responder
preguntas sobre una imagen, mientras que bajo imagen de salida, se genera
una finalización de imagen. Y en su video de salida, se genera
animación. Como mencionamos antes, modelos de lenguaje
generativo aprenden sobre patrones y estructuras del lenguaje a través de sus datos de entrenamiento Y luego cuando se les da algún texto, tratan de predecir
lo que viene después. Entonces, en cierto sentido, los modelos de
lenguaje generativo pueden verse como sistemas de
coincidencia de patrones, perfeccionando su capacidad para discernir
patrones a partir de los datos que se les
presentan Ahora que brindamos la definición formal de inteligencia artificial
generativa, terminemos este video con algunos
ejemplos de IA generativa Aquí hay un ejemplo de la función de autocompletar la búsqueda de
Google. A partir de cosas que aprendió de sus datos de entrenamiento, ofrece predicciones de
cómo completar esta oración. Los gatos odian, y algunas de
las sugerencias son que los gatos odian el olor de los gatos odian el
agua, los gatos odian los pepinos. Aquí está el mismo
ejemplo usando bar, que es un
modelo de lenguaje que se entrena en una cantidad masiva de
datos de texto y es capaz comunicarse y generar texto
humano como respuesta a una amplia gama
de indicaciones y preguntas Entonces cuando uso el prompt, los gatos odian que responda. Los gatos odian muchas cosas, pero algunas de las más
comunes incluyen, y luego una lista de cosas que piensa
que los gatos odiarían. Y el mismo prompt
usando GPT four produce esta
respuesta. Los gatos odian. Los gatos pueden expresar aversión
o incomodidad en respuesta a una variedad de situaciones, objetos
o comportamientos A continuación se presentan algunas de las
cosas que normalmente
no les gustan a los gatos y enumera algunas de las cosas que
piensa que los gatos odiarían Similar a Bart,
GPT four es también un modelo de lenguaje entrenado en una cantidad masiva
de datos de texto y es capaz de comunicarse
y generar
texto similar al humano en respuesta a una amplia gama de
indicaciones y Ahora veamos algunos
ejemplos de generación de imágenes. Usamos el mismo prompt en
tres herramientas de IA diferentes. El aviso es un gato
rodeado de cosas que los gatos odian. Si probamos este prompt en DALE, que es un generador de imágenes AI
que es construido por OpenAI, la misma compañía que construye GPT Obtenemos este resultado. También podemos probarlo en Adobe Firefly Tik
al generador de imágenes Y estos son algunos
de los resultados que obtenemos de Firefly También podemos probar la aplicación Canva texto
a imagen, y proporciona algunos
ejemplos de lo que considera apropiado en
respuesta a nuestras indicaciones Por favor, tenga en cuenta que aquí utilizamos un prompt muy
minimalista, solo para demostrar que incluso sin
proporcionar mucho contexto, aún
podemos producir resultados que son más
o menos relevantes Obtendríamos un
resultado mucho mejor si nuestro prompt incluyera más detalles y
siguiera una estructura sólida. Esto señala la importancia
del diseño
rápido y la ingeniería
rápida, que cubrimos más adelante
en esta sección. En el siguiente video,
hablaremos de transformadores, una tecnología que hizo posible todo esto. Nos
vemos en la siguiente.
8. L2V3: aplicaciones de IA de generación: Echemos un vistazo
al tipo de tareas que pueden realizar diferentes
modelos de IA. Esta tarea generalmente se puede clasificar en función del tipo de datos de entrada que aceptan y el tipo de
datos de salida que generan. Aquí hay algunos ejemplos. Texto a texto. Esto se usa
típicamente en traducción
automática, resumen de
texto y chatbots
como Bard y chat Por ejemplo, si le preguntas a
GPT cuatro, ¿qué es un gato? Yo te diría, un gato es
un pequeño mamífero carnívoro
que a menudo se guarda como mascota El término generalmente se refiere a, y luego sigue generando más información
relacionada con los gatos. Otro modelo es texto a imagen. Esto se utiliza para generar
imágenes a partir de descripciones de texto. Un ejemplo de esto sería aplicación
Canvas texto a
imagen, que crea imágenes a
partir de entradas de texto. En este ejemplo,
podemos usar el prompt un gato gris y blanco sentado en el alféizar de
una ventana observando
palomas afuera Y va a generar esta
imagen para nosotros. Texto a video. IA también se puede utilizar para
generar videos a partir de descripciones de
texto, aunque esta es una tarea más
compleja y menos explorada que la generación de texto a imagen. Por ejemplo, usando
herramientas como en video, podemos crear un video
con solo un baile de graduación de texto. El modelo de IA utiliza nuestro prompt para escribir un
guión para el video y luego selecciona imágenes y videoclips que son relevantes para el
contenido del guión. Incluso puede aplicar filtros y
transiciones al video. Algunas de estas herramientas también
pueden elegir una música que sea relevante para el
contenido del video. Por ejemplo, el modelo de IA
puede asociar a las mascotas con la alegría y luego elegir una música lúdica para
agregar al video Texto a tres D,
estos modelos generan objetos tridimensionales que corresponden a la descripción del
texto de un usuario. Por ejemplo, si le preguntas a Shape E, un modelo
generativo condicional para tres activos D para hacer un avión que
parezca un plátano Crea el
objeto tres D que puedes ver aquí. También tenemos texto a código. Estos modelos son capaces de usar descripción del lenguaje
natural y luego crear un código
basado en eso. Es útil para tareas como la generación
automatizada de código, detección de
errores y la traducción de
código. Por ejemplo, hat GPT, Bart y Github copiloto comparten la capacidad de
generar código. Modelos como Chat GPT, debido a su formación en una
amplia gama de textos de Internet,
incluido el código, tienen la capacidad generar código cuando se les proporciona
un baile de graduación adecuado Bart dos trabaja en
la misma línea, pero su formación se centra
específicamente en la
programación de textos relacionados. También tenemos el copiloto de Github que utiliza el modelo Codex de OpenAI, cual está capacitado en código disponible
públicamente, lo que le
permite sugerir la finalización del código y
generar
código a partir de comentarios
o Toma a la tarea. Los modelos de tomas a
tarea están capacitados para realizar una tarea o
acción definida basada en la entrada de texto. Esta tarea puede ser una amplia gama de acciones
como responder a una pregunta, realizar una búsqueda,
hacer una predicción o tomar algún tipo de acción. Por ejemplo, un
modelo de Ts a tarea podría ser entrenado para navegar por una interfaz de usuario web o realizar cambios en un
documento a través de la GUI. También tenemos imagen a texto. Esto se usa en tareas como subtitulado de
imágenes donde la IA describe una imagen en palabras Por ejemplo, BLiP que es un modelo de IA capaz
tanto de subtitular como de
generar imágenes, puede tomar una imagen como
entrada y proporcionar una descripción de esa
imagen en texto como También tenemos imagen a imagen. Estos modelos realizan tareas como la traducción de imágenes, por
ejemplo, convertir imágenes de día a noche, colorar imágenes en blanco
y negro, o mejorar la resolución de la imagen Por ejemplo, Night Cafe es
un generador de imágenes AI que puede tomar una imagen como entrada para inicializar el proceso de
creación de imágenes Luego produce una imagen
estilizada como salida basada en el prompt del usuario y otros ajustes
que se pueden ajustar Dependiendo del algoritmo
elegido, artístico o coherente, la imagen de inicio sirve para
diferentes propósitos. Para el algoritmo artístico, las formas y estructuras en la imagen son
más significativas. Pero en el algoritmo coherente, se presta
más atención a la resolución, los colores y las texturas. Como otro ejemplo,
veamos la función de edición
mágica de Canva Mediante esta función, podemos
seleccionar una parte específica de la imagen y
reemplazarla por otra diferente. Por ejemplo, aquí,
selecciono la canasta y luego le digo al modelo que quiero reemplazarla por una
cordillera, esperando que el resultado
haga que
parezca que el gato está
sentado sobre una roca. Y podemos ver que el modelo crea algunas sugerencias para mí. Si no estoy contento
con el resultado, puedo pedirle
al modelo que regenere los resultados hasta que
encuentre algo que me guste Y aquí está el resultado final. Incluso puedo ir más allá y
seleccionar el techo al fondo y pedirle
al modelo que lo reemplace por
el cielo con nubes. Y así es como se ve el
resultado. Video a texto. Esto
implica generar una descripción de texto o una
transcripción a partir de un video. Por ejemplo, RS AI puede crear
transcripciones o subtítulos a partir de una entrada de video, incluso traduciéndolos de
un idioma a otro Si bien lo que vemos
en este ejemplo es subtitular solo el
elemento de voz del video, algunas de las herramientas de
subtitulado más avanzadas también son capaces de subtitular elementos que no son
del habla elementos que no son del habla pueden incluir
efectos de sonido, por ejemplo, zumbido de abeja,
jangling de queso o
timbre de puerta, música, ya sea de fondo
o como parte de una escena, reacciones de la
audiencia, por ejemplo,
reír, gemir o abuchear,
manera de hablar, por ejemplo,
susurrar, gritar, enfatizar una Los elementos que no son del habla pueden
incluir
efectos de sonido, por ejemplo,
zumbido de abeja,
jangling de queso o
timbre de puerta, música,
ya sea de fondo
o como parte de una escena, reacciones de la
audiencia, por ejemplo,
reír, gemir o abuchear,
manera de hablar, por ejemplo,
susurrar, gritar,
enfatizar una palabra o hablar con acento y altavoz para un narrador o
altavoz fuera de pantalla o para
múltiples altavoces De igual manera, tenemos
audio a texto. Esto se usa típicamente en sistemas de reconocimiento de
voz para transcribir el
lenguaje hablado en texto escrito Whisper by Open AI es un ejemplo de un modelo de
audio a texto La IA también puede convertir el texto
en discurso sintetizado. Los sistemas de texto a voz convierten el texto a
un lenguaje hablado. Muchas herramientas de IA
como play dot HT, pueden tomar una entrada de texto y
generar un discurso humano como con voces sintetizadas que pueden parecerse a diferentes géneros, edades, acentos o
incluso tonos diferentes, como feliz, triste,
enojado, etcétera Imagen a video. Esta tarea
consiste en generar una secuencia de imágenes o un video a partir de una
sola o un conjunto de imágenes. Por ejemplo, las fotos cinematográficas, una característica de Google Photos, utilizan el
aprendizaje automático para estimar profundidad de
una imagen y construir una
representación en tres D de la escena, independientemente de que
la imagen original contenga información
de profundidad de la cámara Siguiendo esta estimación,
el sistema anima una cámara virtual para crear un efecto de panorámica suave similar
a una secuencia cinematográfica Este intrincado proceso utiliza inteligencia
artificial para transformar una imagen estática en una escena
tridimensional dinámica, dándole una calidad similar a un video Lo que discutimos hasta ahora
son solo algunos ejemplos, y la lista
crece continuamente a medida que
avanza el campo de la IA y a medida que los investigadores inventan nuevas aplicaciones
para estas tecnologías Además, en muchas aplicaciones del mundo
real, estas tareas se combinan. Por ejemplo, un
sistema de IA puede necesitar
convertir voz en texto usando
un modelo de voz a texto, y luego procesar el texto
usando un modelo de texto a texto, y después de eso, generar una respuesta de
lenguaje hablado apropiada, que usa un modelo de texto
a audio. Pero espera, hay más. Hay muchos otros campos en los que GNAI puede tener
aplicaciones innovadoras. Por ejemplo, basta con considerar
la palabra de la música. Las tareas relacionadas con la música son un área activa de investigación
y desarrollo en IA. Aquí hay algunas tareas comunes. Tenemos texto a música. Estos modelos pueden generar
música a partir de entradas de texto. Por ejemplo, pueden crear
una melodía o una composición descrita por una frase o un
trozo de texto. Música a texto. Por otro lado, la IA
también puede convertir música en texto, como crear
partituras para una canción o generar texto descriptivo
o emocional basado en una pieza musical. Tenemos audio a audio, que puede convertir un tipo de sonido o música en otro, como cambiar el
género de una canción, convertir un zumbido en
una pieza compuesta, o incluso eliminar
voces de las pistas También hay
recomendación musical. La IA se usa mucho para
recomendar música
en función de los hábitos de escucha de los usuarios, preferencias e incluso estado de ánimo También tenemos generación de música. Mus Net de Open AI es un
ejemplo de generación musical. Modelos como
Mus enet de OpenAI pueden generar composiciones
musicales de cuatro minutos con diez instrumentos diferentes
y pueden combinar estilos desde country hasta
mozart y los beatles También hay realce musical. Por ejemplo, audio Studio
se puede utilizar para mejorar o
alterar la música existente. Puede hacerlo por cosas como
mejorar la calidad de audio, cambiar el tempo
o agregar efectos Y también hay separación de
fuentes musicales. También podemos usar modelos de IA para separar
instrumentos individuales, voces u otros componentes
de una pista mixta o maestra Metas DMax es un ejemplo de una herramienta de
separación de fuentes musicales Entonces, en conclusión, el ámbito
de la IA generativa es diverso, fascinante y
lleno de potencial La gama de tareas
que puede realizar de toma a toma,
toma a imagen,
audio para tomar, e incluso tareas
intrincadas como mejora de la
música y la
generación es realmente notable Es un campo que evoluciona
continuamente, traspasando los límites de
lo que pensamos que era posible. A medida que continuemos
explorando e innovando, la lista de aplicaciones sólo
se va a ampliar IA generativa es la clave muchos avances
y avances que podrían revolucionar
números de
sectores y la forma en que interactuamos con la sectores y A medida que continuamos explorando
esta emocionante era de IA, quién sabe qué
posibilidades asombrosas podríamos descubrir La clave es
mantener la curiosidad, seguir explorando y comenzar a
imaginar un futuro en el que podamos interactuar con los sistemas de
IA de una manera confiable, responsable y ética
9. L2V4: ingeniería rápida: Hablemos de un tema
intrigante en el ámbito
de la IA generativa, la ingeniería
rápida Como su nombre indica, la IA
generativa se trata de
sistemas que generan salida, ya sea texto, imágenes o cualquier otro tipo de contenido Como verás en la siguiente
sección de este curso, los modelos de lenguaje
grandes o LLM, que son la potencia
de la IA generativa, están diseñados para generar
texto similar al humano a partir Además de generar textos similares a
humanos, los LLM también ayudan a traducir nuestros prompts en salidas
de otro tipo de contenido, como imágenes y videos Esto significa que cuanto mejores sean
nuestras indicaciones de entrada, consigamos una salida de
mayor calidad de
cualquier herramienta generativa de Hoy, exploraremos varios aspectos clave
relacionados con estas indicaciones de entrada Aclararemos qué
es
exactamente un prompt y su papel en
la configuración de la salida del modelo. Distinguiremos entre el diseño
rápido y ingeniería
rápida
y luego pasaremos a introducir varios métodos
de ingeniería rápida. Y por último, discutiremos las limitaciones de la
ingeniería rápida para
brindarle una comprensión realista y expectativa de
este emocionante proceso. Así que comencemos. Entonces, ¿qué es un prompt? Un prompt es esencialmente
una pieza de texto que se le da a un modelo generativo de
IA como entrada Pero no se trata de cualquier toma. Sirve a un propósito fundamental. Estas indicaciones son su enlace de
comunicación con el modelo. Dirigen el modelo de IA y
dirigen su generación de salida. El modelo toma en su
prompt, procesa, y entrega una salida que se alinea con la instrucción
prompts. En otras palabras,
estas indicaciones son su herramienta para controlar
la salida del modelo Piense en un prompt como su instrucción guía para
el modelo generativo de IA, como un director que
guía a un actor Cuanto más precisa y
clara sea tu dirección, mejor será
la actuación que
puedas esperar del actor. Del mismo modo, las indicaciones bien
diseñadas permiten el modelo produzca salidas
más específicas y de
mayor calidad Recuerde, la clave radica en la calidad y el diseño
de sus indicaciones, y aquí es donde entran en juego
los conceptos de diseño
rápido e
ingeniería rápida, que vamos
a discutir ahora Como mencionamos anteriormente, la calidad del prompt
juega un papel crucial en determinación de la calidad de
la salida a partir de un modelo
generativo de IA Aquí, dos conceptos entran en la imagen diseño rápido
e ingeniería rápida. diseño rápido se refiere a
la elaboración de indicaciones que son específicas de la tarea que se
le pide al modelo Por ejemplo, si
quieres que el modelo
traduzca un fragmento de texto
del inglés al francés, el prompt se
escribiría en inglés y especificaría que la
salida deseada debe estar en francés. En esencia, se
trata de crear prompts que generen
la salida deseada Por otro lado,
contamos con ingeniería pronta. Este proceso se trata más mejorar el rendimiento
del modelo. Implica estrategias como aprovechar el conocimiento
específico del dominio, proporcionar ejemplos
del resultado deseado o incorporar
palabras clave que se sabe efectivas para cualquier modelo de IA
generativa en particular Entonces ya ves, mientras ambos conceptos giran en torno
a la elaboración de indicaciones, sirven para El diseño rápido consiste en
adaptar las indicaciones a tareas, mientras que la ingeniería rápida
tiene como objetivo aumentar el rendimiento Sin embargo, no son
mutuamente excluyentes. En la práctica, crear un prompt efectivo
a menudo implica tanto diseñarlo para la tarea diseñarlo para
un mejor desempeño. Ahora veamos algunas de las técnicas empleadas en
la ingeniería
rápida para maximizar la calidad de salida de nuestros modelos
generativos de IA Uno de esos métodos es el uso de conocimiento específico del
dominio. Cuando conoce bien el área de
tareas, puede aprovechar esa
experiencia para diseñar indicaciones que guían el
modelo de manera más efectiva Por ejemplo, si estás
trabajando en IA médica, podrías usar
terminología y
estructuras médicas en tus indicaciones
para aumentar la precisión Otro método es usar palabras clave conocidas por ser efectivas
para un modelo específico. Al igual que en la optimización de
motores de búsqueda, donde palabras clave específicas
ayudan a clasificar las páginas más altas, ciertas palabras clave pueden dirigir
el modelo de manera más efectiva. La elección de las palabras clave se
basaría en los datos de entrenamiento del modelo
y sus patrones aprendidos. Con modelos como
Bart o chat GPT, puedes
preguntarle directamente al modelo sobre estas palabras clave y cómo usarlas para
optimizar tu prompt También debemos considerar estrategias
avanzadas
como la provocación de roles, la incitación disparos y la provocación
de cadenas de pensamiento motivación de roles es una técnica que instruimos al modelo GNAI para que asuma un determinado rol o persona mientras
genera Por ejemplo, podrías instruir
al modelo para que responda como si fuera un historiador explicando las causas
de la primera guerra mundial El modelo luego utiliza
sus datos de entrenamiento para generar una respuesta que
se alinee con esta persona incitación de disparos,
por otro lado, implica dar una foto de contexto antes de la instrucción
real Puede proporcionar ejemplos
de la salida deseada. Esto ayuda a guiar el modelo
proporcionándole una referencia o plano
de lo que se espera Por ejemplo, si quieres
un resumen de un documento, podrías proporcionar
algunos ejemplos de resúmenes junto con
el texto original O si
buscas una crítica de una película, en lugar de simplemente decir, escribe una crítica de la
película X, podrías decir, Imagina que acabas de
terminar de ver la emocionante película X
en un cine abarrotado Escribe una crítica de la película. Este contexto agregado puede
guiar al modelo para producir una salida
más cargada emocionalmente
y consciente del contexto. Hay diferentes
tipos de incitación de disparo, cero, uno y pocos
disparos Zero shot provocando tareas el modelo Gen AI
sin ejemplos previos Por ejemplo, traduce esta frase en
inglés al francés. El chat es barrido. Aquí, estamos brindando
una tarea sin un ejemplo específico de
cómo se debe hacer. indicación de un solo disparo proporciona un solo ejemplo de orientación Por ejemplo, continúe
la siguiente historia. Érase una vez en
una tierra lejana, hubo una noche valiente. Y luego brindamos un ejemplo
de continuación de una historia. El modelo luego
intenta continuar la historia siguiendo el estilo
del ejemplo que brindamos. Y tenemos pocas indicaciones de disparo,
que también se conoce como incitación multidisparo Aquí, proporcionamos múltiples
ejemplos para ayudar al modelo. Un ejemplo sería pedirle al modelo que genere
una revisión de producto, precedida de una serie de reseñas de productos de
ejemplo. El modelo intentará escribir una reseña similar a los
ejemplos que brindamos. Y por último, pero no menos importante, la generación de una
cadena de pensamiento
implica proporcionar una línea de razonamiento o
argumento al modelo de la GNAI En lugar de una
pregunta o instrucción directa, das una serie de pensamientos
que llevan a la pregunta. Por ejemplo, en lugar de preguntar, cuáles son las causas
del calentamiento global, incitaría con que hemos visto un aumento de las temperaturas
globales en las últimas décadas. Este cambio a menudo denominado calentamiento
global parece estar
influenciado por diversos factores. ¿Cuáles son estas causas? Estas estrategias pueden mejorar la riqueza y relevancia
de la producción del modelo, demostrando
aún más el poder
de la ingeniería rápida y hábil. Recuerde, estos no son métodos
independientes, pero a menudo se pueden combinar para
diseñar un poderoso prompt. Ahora que tenemos una comprensión
de estas técnicas, pasemos a las limitaciones
de la ingeniería rápida. Si bien la
ingeniería rápida abre oportunidades
emocionantes
para afinar la salida de un modelo
generativo de IA, es importante tener
en cuenta que no es una varita mágica que siempre pueda
garantizar resultados perfectos Hay ciertas limitaciones y limitaciones que
debemos tener en cuenta. Primero, los modelos generativos de IA, aunque potentes, no
son omnipotentes Están capacitados en una amplia
gama de datos, pero esto no significa
que tengan la capacidad de responder con precisión cualquier pregunta o cumplir con cualquier tarea que le indiques. Por ejemplo, el
modelo no tiene la capacidad de
generar contenido fuera de su fecha límite de entrenamiento o predecir con precisión eventos
futuros En segundo lugar, la precisión
y relevancia de la salida del modelo depende en
gran medida la calidad y claridad
de su solicitud. Sin embargo, incluso un prompt
perfectamente diseñado no siempre
puede producir el resultado esperado debido a la imprevisibilidad inherente
de los modelos de IA En tercer lugar, incluso con una meticulosa ingeniería
rápida, los modelos a veces pueden generar resultados que son fácticamente
incorrectos o Esto se debe a que estos
modelos generan respuestas basadas en patrones
que aprendieron durante el entrenamiento, y no entienden el
contenido en el sentido humano. Y por último, ciertas tareas
pueden requerir un nivel de especificación o conocimiento
específico de dominio que supere la formación del
modelo Un modelo de IA
generativa de propósito general puede no ser capaz de
generar con precisión contenido altamente especializado o respuesta a indicaciones altamente técnicas
en campos como el derecho, las matemáticas
avanzadas o
subdisciplinas médicas específicas Entonces, si bien la ingeniería rápida
es una herramienta poderosa, es esencial estar al tanto de estas limitaciones para mantener expectativas
realistas y usar modelos
generativos de IA de manera
más efectiva Bien, vamos a terminar las cosas. Hoy, hemos explorado el mundo de las indicaciones en modelos
generativos de IA Hemos aprendido sobre el diseño
rápido y la
ingeniería y discutimos varios métodos, como la incitación de
disparos, la incitación a
rodar y la generación
de mensajes de pensamiento Recuerde, la ingeniería rápida no
es una bala mágica. Es una herramienta, y como cualquier herramienta, tiene sus limitaciones. Así que experimenta con la creación tus propios prompts y
explora las posibilidades Gracias por mirar, y te
veré en la siguiente.
10. L3V1: LLM: Bienvenido a la introducción
a los modelos de idiomas grandes. Los modelos de lenguaje grandes
o LLM para abreviar, son un subconjunto del aprendizaje profundo Se cruzan con la IA
generativa, que también forma parte
del aprendizaje profundo Ya explicamos que la IA
generativa es un tipo de inteligencia artificial
que puede producir nuevos contenidos, incluyendo texto, imágenes,
audio y datos sintéticos Pero, ¿qué son los modelos de
idiomas grandes? Cuando usamos el término modelos de lenguaje
grande, nos referimos a grandes
modelos de lenguaje de
propósito general que podemos
pre-entrenar y luego afinar para satisfacer nuestras necesidades para propósitos
específicos. Pero, ¿qué queremos decir con pre
entrenado y afinado? Piensa en el proceso
de entrenar a un perro. Por lo general, instruye a su perro en comandos básicos como sentarse, calmarse y quedarse Estos comandos suelen ser
suficientes para el día a día, ayudando a tu perro a convertirse en un perro bien portado
en el vecindario Sin embargo, cuando se requiere que un perro cumpla un rol especial, como un
perro de seguridad, un perro guía o un perro policía, se hace necesario un
entrenamiento específico
adicional. El mismo principio se aplica
a los modelos de lenguaje grande, igual que el entrenamiento
especializado prepara a los perros para
sus roles únicos, ajuste
fino de un modelo de lenguaje
grande preentrenado le permite realizar tareas
específicas de manera eficiente
y precisa, ya sea análisis de sentimientos
o traducción automática El modelo puede ser perfeccionado a
Excel en el dominio deseado. Estos modelos reciben
capacitación con un enfoque amplio, preparándolos para abordar las tareas
relacionadas con
el lenguaje estándar como la clasificación de textos, una tarea de
procesamiento del lenguaje natural ampliamente utilizada que implica categorizar el texto en grupos
organizados en función de su contenido Respuesta a preguntas, que es una tarea importante en el procesamiento del lenguaje
natural, donde el modelo está capacitado para comprender y responder
a las consultas con precisión, simulando
esencialmente
la capacidad humana comprender y
responder documentos,
donde el modelo tiene la tarea producir un resumen conciso y fluido de un texto grande, mantener la esencia y ideas
primarias y generación de
texto en
múltiples industrias, crear texto humano, que se puede adaptar a
industrias específicas, ya sea redactar correos electrónicos
en comunicación corporativa, crear descripción del producto
en ecommerce, o generar
reportes de pacientes en salud. Estos modelos poseen la
capacidad de ajustarse
con precisión para resolver desafíos
únicos
dentro de varios sectores,
incluidos el comercio minorista, las finanzas
y el entretenimiento, utilizando conjuntos de datos específicos de
campo comparativamente más pequeños Por ejemplo, en retail, se
pueden utilizar
para recomendaciones de
productos personalizadas basadas en datos de texto. Mientras están en las finanzas,
pueden ayudar a
predecir las tendencias del mercado
a partir de informes financieros O en la
industria del entretenimiento, podrían ayudar en generación de
guiones o la recomendación de
contenido, mostrando la flexibilidad y amplia aplicabilidad de los modelos de lenguaje
grande Vamos a
desglosar aún más el concepto en tres características principales de los modelos de lenguaje
grandes. Los modelos de lenguaje grande son grandes, propósito
general, y
preentrenados y afinados. Discutamos cada uno
de ellos por separado. El término grande se refiere
a dos cosas. En primer lugar, señala tamaño masivo
del conjunto de datos
de entrenamiento, llegando
a veces a la
escala de petabytes En segundo lugar, señala
el inmenso número de
parámetros involucrados. En el ámbito del aprendizaje
automático, estos parámetros suelen
denominarse hiperparámetros Esencialmente, estos
parámetros actúan como la memoria y el conocimiento que la máquina gana
durante el entrenamiento del modelo. A menudo esbozan la
competencia de un modelo
para abordar una tarea
como la predicción Al ajustar estos parámetros, podemos afinar el rendimiento del modelo para una predicción
más precisa. Propósito general significa
que los modelos son lo suficientemente
potentes como para resolver problemas cotidianos
comunes Este concepto está liderado
por dos razones. En primer lugar, el lenguaje humano
exhibe una naturaleza universal, independientemente de la
tarea distinta a la que se aplique. En segundo lugar, hay que considerar las limitaciones
de recursos. Solo un número limitado
de organizaciones tienen la capacidad de entrenar estos modelos
masivos de lenguaje, que requieren conjuntos de datos extensos y una cantidad masiva
de parámetros. Entonces, ¿por qué no dejar que estas
organizaciones construyan modelos de lenguaje
fundacional que otros puedan usar Esto nos lleva al aspecto final de
los modelos
de lenguaje de gran tamaño, preentrenamiento y afinación fina. Esencialmente, esto significa
que un modelo de lenguaje grande se preentrena primero
para casos de uso amplios, utilizando un extenso conjunto de datos, recopilando una amplia gama de patrones
lingüísticos
y conocimientos. Después de esta etapa de
preentrenamiento, el modelo se
afina para atender a objetivos
particulares utilizando un conjunto de datos
relativamente más pequeño y
especializado. Este proceso de dos pasos asegura que el modelo mantenga una amplia
base de comprensión al
tiempo que es capaz de comprender
profundamente y generar predicciones específicas
para un campo o tarea determinados. Y con eso, concluimos nuestra introducción a los modelos de lenguaje de
gran tamaño. En el siguiente video,
discutiremos algunos de los beneficios de usar LLM
11. L3V2: beneficios de LMM: En este video, vamos a explorar los diversos beneficios de usar
modelos de lenguaje grande o LLM para abreviar Veremos cómo estos
impresionantes modelos de IA se
pueden usar para una
variedad de tareas, cómo funcionan con datos
mínimos de entrenamiento de campo y cómo continúan mejorando a medida que se agregan más datos y
parámetros. También discutiremos cómo LLM se adaptan a diferentes escenarios de
aprendizaje, incluso con la presencia
de datos previos mínimos Entonces, ojalá al discutir
estos beneficios, podamos ver por qué las LLM son un gran salto adelante en el ámbito de la
inteligencia artificial Hay muchos beneficios claros
e impactantes en el empleo de LLM No están restringidos
a una sola tarea. Un modelo por sí mismo es una potencia multitarea cumple muchos Estos sofisticados LLM, que están capacitados en un
enorme volumen de datos y desarrollan miles de millones de parámetros, tienen la capacidad manejar una variedad de tareas Por ejemplo, sobresalen
en responder preguntas. Los LLM pueden examinar sus
amplios datos de capacitación para encontrar las respuestas más adecuadas
y precisas a una amplia gama de consultas Son capaces de entender
el contexto, la ambigüedad e incluso los nonces en el lenguaje, haciéndolos altamente efectivos en las tareas de respuesta
a preguntas El modelo genera una respuesta coincidente con el contexto,
tono y complejidad de las consultas , proporcionando precisas y contextualmente
apropiadas En términos de generación de texto, los
LLM realmente brillan. Pueden crear
texto de alta calidad que sea coherente, contextualmente apropiado
y notablemente humano Ya sea que se trate de generar una
noticia, escribir un poema o incluso inventar
una historia atractiva, LLM son altamente capaces También pueden ayudar con tareas
como la creación de contenido, asistencia en la
redacción e
incluso la finalización del borrador. Al considerar la entrada dada y utilizar su vasta base de
conocimientos, pueden generar texto que no sólo es
gramaticalmente correcto, sino que también es rico en contenido satisfagan las demandas
de diversos casos de uso Los modelos de idiomas grandes también son altamente capaces en la traducción de
idiomas. Equipados con el conocimiento de numerosos idiomas a partir de sus
extensos datos de formación, pueden traducir con precisión textos de una
lengua a otra, manteniendo el significado semántico y el contexto del texto
original No solo trabajan con idiomas
comúnmente hablados, sino que los LLM también pueden manejar los
menos utilizados,
lo que los convierte en una
herramienta invaluable para la
comunicación intercultural Además, pueden comprender y adaptarse
a diferentes dialectos,
jerga y lenguaje informal, asegurando que las traducciones
sean precisas, asegurando que las traducciones
sean precisas, legibles LLM también son una herramienta poderosa cuando se trata de lluvia de ideas Pueden generar ideas, sugerir
perspectivas alternativas y contribuir a la resolución
creativa de problemas. Ya sea que estés
buscando un titular pegadizo, una estrategia de marketing única
o una trama nueva para una novela, estos modelos pueden generar numerosas posibilidades basadas en el contexto que les proporcionas Al capacitarse en una
amplia gama de datos, han aprendido
a idear ideas
diversas e innovadoras que pueden generar
más inspiración y ayudar a que su
proyecto avance. No solo eso, sino que también
pueden ofrecer críticas y sugerencias para mejorar las ideas existentes, actuando como un socio artificial de
lluvia de ideas disponible en cualquier momento Y hay mucho más. Más allá de la tarea que hemos
discutido hasta ahora, LLM tienen una gran cantidad
de otras capacidades Por ejemplo, pueden ser
utilizados en el análisis de sentimientos, determinando si una pieza
de texto transmite un sentimiento positivo, negativo o neutral Pueden ayudar a resumir
largos fragmentos de texto. Los LLM también se pueden utilizar
en sistemas de tutoría, proporcionando explicaciones
para temas complejos
en una variedad de temas en una variedad Las posibilidades son
infinitas y se
expanden constantemente a medida que estos modelos
continúan evolucionando y mejorando. Otro beneficio importante de los grandes modelos de lenguaje
es su capacidad para
desempeñarse de manera impresionante con datos
mínimos de entrenamiento adaptados a un problema específico Pueden ofrecer
resultados de calidad incluso cuando se les proporciona una pequeña cantidad
de datos específicos del dominio. Esta calidad los hace
altamente adaptables a pocos escenarios de
aprendizaje de tiro o tiro cero. Ahora, no nos
confundamos aquí. Déjame explicarte cuál
es la diferencia
entre el aprendizaje de tiro
y el impulso de disparos. Como discutimos en el video de ingeniería
rápida, disparo
implica dar una toma de contexto antes de la instrucción
real Este contexto agregado puede
guiar al modelo para producir una salida más cargada emocionalmente y consciente del contexto. También dijimos que hay diferentes tipos de incitación de
disparo, cero, uno y pocos
disparos Zero shot provocando tareas el modelo GNAI sin ejemplos
previos Un disparo
proporciona un solo ejemplo, y pocos disparos proporcionan múltiples ejemplos
para ayudar al modelo En el contexto del aprendizaje
automático, el aprendizaje poco plano
se refiere a escenarios en los que un modelo se entrena
sobre un conjunto limitado de datos. Este proceso es particularmente
beneficioso en situaciones donde grandes cantidades de datos de entrenamiento no están
disponibles o son prácticos. Por otro lado, tiro
cero se refiere a una
capacidad aún más impresionante de los modelos. Implica que un
modelo puede identificar y comprender conceptos o tareas en las que no se ha entrenado
explícitamente. Es como tener un
sistema inteligente que pueda hacer suposiciones
lógicas y entregar soluciones basadas en el
conocimiento que ha adquirido, incluso ante escenarios
completamente nuevos. Así podemos ver que los
LLM pueden sobresalir incluso en escenarios de tiro
cero gracias a su entrenamiento en vastos conjuntos Pueden manejar nuevas
situaciones aprovechando su amplio conocimiento para
inferir respuestas adecuadas, incluso sin haber encontrado
directamente el escenario específico
en sus datos de entrenamiento En esencia, los LLM se pueden adaptar
rápidamente a una
amplia gama de tareas, incluso cuando esas
tareas están fuera del dominio específico en
el que el modelo fue entrenado
originalmente Esta adaptabilidad abre
un mundo de posibilidades para utilizar estos modelos en diversos campos
y aplicaciones Un beneficio clave de los LLM es su
mejora consistente a medida que
aumentamos la cantidad de datos y el número de parámetros
involucrados en su capacitación Por ejemplo, considere el
viaje de GPT 3.5 con 175 mil millones de parámetros a GPT cuatro con un estimado de
170 billones El aumento exponencial en
el recuento de parámetros condujo a un avance notable en las capacidades,
comprensión y precisión del modelo Esta tendencia de crecimiento sugiere que LLM pueden evolucionar aún más a medida que continuamos empujando
los límites de los datos
disponibles y los
recursos computacionales GPT four
supera significativamente a los GPTs 3.5 debido a su mayor
número Muestra una comprensión superior
de los contextos y matices, ofrece
respuestas más precisas y desempeña mejor en las tareas de traducción
y resumen Además, GPT four es más
capaz de comprender instrucciones
complejas
sin
tener que
dividirlas en instrucciones
complejas
sin
tener que pasos más pequeños, mostrando su capacidad
superior para
adaptarse a escenarios de aprendizaje de tiro cero y
pocos disparos Y el cuarto beneficio de los LLM es que al interactuar
en lenguaje natural, mejoran la accesibilidad a IA para cualquier persona con
una computadora básica, eliminando la necesidad de habilidades técnicas
especializadas Si eres un estudiante que
busca ayuda con la tarea, un escritor que necesita inspiración o un dueño de un negocio que busca análisis de tendencias
del mercado, LLM están aquí para ayudar Sus habilidades de reconocimiento de voz y síntesis de voz
humana
abren posibilidades para aquellos que podrían tener
dificultades para escribir o incluso para individuos que
no pueden leer y escribir. Además, sus capacidades de
traducción de alta calidad
eliminan las barreras del idioma, haciendo que estas poderosas
herramientas sean utilizables para personas de diversos
grupos demográficos y orígenes Esencialmente, las LLM
están transformando la forma en que interactuamos
con la tecnología, trayendo habilidades complejas de IA a una amplia gama de
usuarios en todo el mundo En conclusión, los modelos de
lenguaje grande están rompiendo barreras, haciendo que la IA sea accesible para todos. Con sus
capacidades versátiles y su potencial en constante evolución, LLM están revolucionando la forma en que
interactuamos con la tecnología interactuamos A medida que miramos hacia el futuro, estamos seguros de que estos
modelos continúan mejorando nuestras vidas y trabajando de
formas inimaginables En el siguiente video,
analizamos un poco más
a fondo tres ejemplos de LLM Palm y Lambda de Google y GPT de Open AI. Nos
vemos en la siguiente.
12. L3V3: ejemplos de LLM: En este video, observamos algunos ejemplos de modelos de
lenguaje de gran tamaño. Entramos en los detalles
de tres LLM de última generación, Palm, Lambda
y GPT, y también
discutiremos algunos otros LLM, que han demostrado ser prometentes en
el campo de la IA generativa Entonces comencemos con Palm, que significa modelo de lenguaje de
vías. Palm es un modelo de lenguaje de
parámetros 540 mil millones desarrollado por Google AI. Está capacitado en un
conjunto de datos masivo de textos y código y puede realizar una
amplia gama de tareas, incluyendo respuesta a preguntas, inferencia en lenguaje
natural, generación de
código, traducción
y resumen Utiliza el sistema de
vías de Google, lo
que le
permite ser entrenado en un conjunto
de datos masivo de texto y código. Con 540 mil millones de parámetros, Palm es uno de los modelos
lingüísticos más grandes del mundo. Se trata de un modelo de transformador
solo decodificador denso, lo que significa que
está
diseñado específicamente para tareas de generación de
lenguaje natural. Palm puede lograr un
rendimiento de pocas tomas de última generación en
la mayoría de las tareas, lo
que significa que puede aprender a realizar una nueva tarea con
solo unos pocos ejemplos. Esto convierte a Palm en una
herramienta poderosa para una variedad
de aplicaciones. Entonces, ¿qué es el sistema de vías? El sistema Pathway es una
arquitectura de IA que se mantiene altamente efectiva
mientras genera en diferentes
dominios y tareas. Es capaz de entrenar de manera efectiva
un solo modelo a través de
múltiples TPU V cuatro pods, que son los aceleradores de
aprendizaje automático de
diseño personalizado de Google aceleradores de
aprendizaje automático de
diseño Esto permite al sistema Pathway
manejar muchas tareas a la vez, reflejar una mejor
comprensión del mundo y aprender nuevas tareas rápidamente. Los sistemas Pathway
logran esto mediante el uso una serie de técnicas,
incluido el paralelismo modelo Esta técnica permite entrenar
múltiples modelos sobre los mismos
datos simultáneamente. Esto puede mejorar
la velocidad de entrenamiento y la eficiencia del sistema de
vías. Paralelismo de datos. Esta técnica permite entrenar
múltiples copias
del mismo modelo
en diferentes conjuntos de datos. Esto puede mejorar la precisión del sistema de vías al permitirle
aprender de una variedad más amplia de datos y aprendizaje automático. Esta técnica permite que el sistema de
vías optimice
automáticamente
sus parámetros de entrenamiento. Esto puede mejorar
el rendimiento del sistema de vías al evitar que se ajuste
a los datos de entrenamiento El sistema Pathway aún
está en desarrollo, pero tiene el potencial de
revolucionar la forma en que
construimos e implementamos modelos Al permitir que los modelos
orquesten computación
distribuida
para aceleradores, los sistemas
Pathway pueden
facilitar la construcción y el entrenamiento grandes modelos de IA complejos que pueden manejar una amplia
variedad A continuación, hablemos de
otro LLM de Google, Lambda. Lambda significa
modelo de lenguaje para aplicaciones de diálogo. Lambda es una familia de modelos de lenguaje
neuronal
desarrollados por Google AI. Se capacita en
diálogo y tiene hasta 130 mil millones de parámetros, pre entrenado en un conjunto
de datos de 1.56 billones Lambda tiene tres objetivos clave de calidad, seguridad
y fundamento. Estos objetivos se miden por métricas como la sensibilidad, la
especificidad, el interés y la informatividad. Lambda está diseñado para
ser informativo y completo a la vez que
es seguro y conectado a tierra. Es capaz de generar diferentes
formatos de texto creativos como poemas, código, guiones, piezas musicales, correo electrónico, letras y mucho más. Intentará todo lo posible para
cumplir con todos sus requisitos. Lambda tiene el potencial de
revolucionar la forma en que
interactuamos con las Se puede utilizar para crear experiencias de
diálogo
más naturales y atractivas y para proporcionar a los usuarios una asistencia
más útil e
informativa. Como dijimos antes, hay tres beneficios clave en Lambda. Uno, diálogo natural y
atractivo. Lambda puede entablar diálogo
natural y atractivo con los humanos. Puede entender el
contexto de una conversación, y puede responder de una manera que sea a la vez informativa
e interesante. Dos, asistencia servicial e
informativa. Lambda puede proporcionar a
los usuarios asistencia útil e
informativa. Puede responder preguntas, generar formatos de texto creativos
y seguir instrucciones. Y tres, seguro y conectado a tierra. Lambda está diseñado para
ser seguro y conectado a tierra. Está entrenado en un
conjunto de datos masivo de texto y código y es capaz de distinguir entre contenido seguro e inseguro. Y ahora
pasemos al GPT de OpenAI,
que es la abreviatura de transformador
preentrenado generativo GPT es un tipo de modelo de aprendizaje
profundo utilizado para
generar texto similar al humano Fue desarrollado por OpenAI, una compañía de investigación sin fines de lucro
y está financiado por Microsoft GPT utiliza una arquitectura de
transformador, que es un tipo de red
neuronal que es muy adecuada para las tareas de procesamiento del
lenguaje natural Los parámetros para la
última versión de GPT, que es GPT cuatro no
se revelan, pero probablemente sea
mucho mayor que
GPT 3.575 mil millones GPT Esto significa que GPT cuatro tiene una mayor capacidad para aprender
y entender el idioma GPT four también ha
demostrado ser competente en evaluaciones de habilidades
como el examen de la barra En un estudio reciente,
GPT cuatro puntuó en el percentil 90
en el examen de la barra, que es una
prueba estandarizada que se requiere para ingresar al colegio de abogados en muchas jurisdicciones GPT es una poderosa herramienta que se
puede utilizar para una
variedad de tareas, incluyendo generar texto,
responder preguntas, traducir idiomas
y mucho más Además de lo que
discutimos hasta ahora, hay otros LLM que
están transformando la forma en que
miramos la IA y están ayudando a dar forma
al futuro del campo Repasemos brevemente
algunas de ellas. El primero es recorrer
NLG de Microsoft, un modelo de lenguaje a mayor escala entrenado en diversos textos de Internet que es capaz de escribir párrafos
coherentes e
incluso artículos enteros Burt by Google, un revolucionario modelo basado en
transformadores que está pre entrenado en un gran corpus de textos y
afinado para diversas tareas de procesamiento del
lenguaje natural, proporcionando un alto nivel de
comprensión del contexto
y significados semánticos Transformer XL, un
modelo de lenguaje desarrollado por equipo cerebral de
Google
que
maneja de manera innovadora dependencias a largo plazo en secuencias, mejorando
significativamente
el desempeño de
tareas como la generación de texto
y También está Excel Net, que es una extensión
del transformador xl, desarrollado por Google Brain y
Carnegie Melon University Utiliza un método de
entrenamiento basado en permutaciones para superar algunas limitaciones del BIRT y superarlo en
varios puntos Electra es un enfoque de
pre-entrenamiento altamente eficiente desarrollado por Google Research que utiliza menos potencia de cómputo para rendimiento
similar o incluso mejor que modelos como BRT Contamos con transformador Megatron, un modelo basado en transformador
desarrollado por Nvidia, diseñado para entrenar modelos de lenguaje muy
grandes con miles de millones de parámetros Aprovecha las capacidades de
procesamiento paralelo
de las GPU modernas Y tenemos ama
introducido por meta, Lama es un modelo de lenguaje fundamental, más pequeño pero performante
grande Está diseñado para ampliar el
acceso a la investigación de IA, requiriendo menos
potencia computacional y recursos para probar nuevos enfoques y
validar Lama también puede estar disponible
en diferentes tamaños, rango de
7000000000-65 Entonces en este video, nos sumergimos en los
emocionantes avances en modelos de lenguaje grande, centrándonos en Palm y Lambda de Google
AI, así
como en GPT de OpenAI También destacamos otros modelos
notables en el campo, como touring Energy,
BRT, XLnT y mega
tron Discutimos cómo estos LLM con parámetros que pueden llegar a
cientos de miles de millones redefinen el
aprendizaje multitarea y revolucionan nuestra interacción Estos modelos ya han demostrado sus habilidades
excepcionales en tareas como la generación de texto e incluso evaluaciones prácticas
como el examen de barra, y solo siguen
mejorando.
13. L3V4: modelos de base: En este video, aprenderás
sobre los modelos de cimentación, que como su nombre indica, proporcionan una base para los modelos
generativos de IA Específicamente,
comenzamos por brindar una definición para los modelos de
cimentación y explicando cuáles son. Luego hablaremos
sobre plataformas que brindan diferentes tipos
de modelos de cimentación con un enfoque en el jardín modelo de Vertex
AI y terminaremos el video
discutiendo diferentes tipos
de modelos de cimentación Ahora bien, ¿qué son los modelos de cimentación? Pidamos a Bart que
nos ayude a responder la pregunta. Proporciona tres borradores
diferentes. Los modelos de base son grandes redes
neuronales preentrenadas que se
pueden afinar
para una variedad de tareas como el procesamiento del
lenguaje natural, visión por
computadora y el reconocimiento de
voz. Los modelos básicos son modelos de
lenguaje grandes entrenados en conjuntos de datos
masivos que se
pueden ajustar para una variedad de
tareas posteriores, como la traducción, respuesta a
preguntas
y el resumen Los modelos básicos son grandes modelos de
aprendizaje automático preentrenados que se
pueden adaptar a una amplia gama de tareas como el procesamiento del
lenguaje natural, visión por
computadora y la robótica Por lo que los modelos de base son modelos de IA
grandes que se pueden adaptar a una amplia gama de tareas y pueden generar resultados de
alta calidad. Aunque los modelos de IA
no son nuevos para nosotros, hay algo
bastante diferente estos
modelos básicos. Vienen equipados con
varias características clave que los distinguen, marcando un cambio significativo con respecto a
los modelos de IA que hemos visto
en generaciones anteriores. Los modelos de cimentación no
se limitan a una sola tarea. Son multitarea. Un solo
modelo de base puede abordar una amplia gama de tareas
desde el primer momento,
como el resumen, la respuesta a
preguntas
o la clasificación Pueden manejar diversas
modalidades de tipos de datos, incluyendo imágenes, texto,
código y mucho más. Con un
entrenamiento mínimo o nulo, los modelos de
cimentación pueden
funcionar bien fuera de la caja. También se pueden adaptar para casos de uso
específicos usando solo
un puñado de datos de ejemplo. Debido a que
normalmente se capacitan en grandes cantidades de datos diversos, estos modelos pueden aprender patrones y
representaciones
generales, que luego se pueden aplicar en varios
dominios y tareas. Antes de ahora, los modelos de cimentación
eran de difícil acceso. Se requieren habilidades especializadas
de aprendizaje automático y recursos de cómputos
para usar en producción. Pero con la reciente ola de avances en IA generativa, las cosas están cambiando
drásticamente Por ejemplo, tomemos Vertex AI, una plataforma de
aprendizaje automático completamente administrada disponible en Google Cloud Si ya estás familiarizado
con las herramientas de Google Cloud, ya
sabes que Vertex
AI te permite acceder,
crear, experimentar, implementar y administrar diferentes modelos de aprendizaje
automático Cosas como la
ciencia de datos tradicional, el aprendizaje automático, los MLP o simplemente crear
una aplicación impulsada por IA Vertex AI está equipado para
soportar todas esas cargas de trabajo. Eso es genial y todo, pero aquí es donde las cosas empiezan
a ponerse realmente interesantes. Recientemente, Google Cloud anunció dos herramientas importantes que nos permiten hacer aún más jardín de modelos
y estudio generativo de IA Estas herramientas hacen que los modelos de
base estén disponibles para un público mucho
más amplio, incluso sin mucha experiencia codificación y desarrollo de ML. La última sección de este
curso está dedicada a introducir las herramientas Google
Cloud Gen AI, y hablaremos más sobre estudio
generativo de IA
en esa sección Entonces, en este video, centrémonos
sólo en el modelo de jardín. ¿Qué es exactamente donde está
el XAI Model Garden? Es un lugar único
para explorar e interactuar con los modelos líderes de la
industria de Google, así
como con los modelos populares de código
abierto, o con el soporte
empresarial EmlopStoling
de Google Cloud empresarial EmlopStoling Alberga tanto modelos tradicionales
de aprendizaje automático como modelos fundamentales para aplicaciones
generativas de IA Dentro de Model Garden, encontrarás una variedad de modelos
de Google Cloud,
Google Research y
varias fuentes externas, adaptan a una variedad
de formatos de datos. Entonces así es como se ve dentro del Model
Garden de
Vertex AI Con muchos modelos
listos para empresas diferentes a su disposición, Model Garden le
permite seleccionar el modelo más
adecuado, dependiendo de su caso de uso, su experiencia en ML y su presupuesto disponible. Tenga en
cuenta que estamos utilizando Model Garden de
Vertex AI como ejemplo de
una plataforma que Google Cloud proporciona para diferentes IA generativa y
otras
herramientas y API de aprendizaje automático Hay otras
empresas que tienen sus propias versiones de
Model Garden también. Por ejemplo, Amazon Sagemaker, asistente de
IBM Watson, y
Vida Clara, Data IKAI,
Open AI chat GPT API,
Microsoft Azores
Machine Learning, Data Robot AI y Databricks
LakehousePlatform, proporcionan herramientas y API
tanto para modelos tradicionales de aprendizaje
automático como para tanto para modelos tradicionales de aprendizaje
automático como asistente de
IBM Watson, y
Vida Clara, Data IKAI,
Open AI chat GPT API,
Microsoft Azores
Machine Learning,
Data Robot AI y Databricks
LakehousePlatform,
proporcionan herramientas y API
tanto para modelos tradicionales de aprendizaje
automático como para modelos de base de IA generativa. Existen diferentes tipos
de modelos de bases, incluyendo generación
y resumen de texto, chat y diálogo,
generación y finalización de código, generación y
modificación de
imágenes e incrustaciones Ahora, echemos una mirada más profunda a cada una de ellas. Modelos de texto. Estos modelos te ayudan a realizar tareas de lenguaje
natural con
cero o pocos disparos. Pueden hacer tareas
como resumen, extracción de
entidades e información, generación de
ideas y mucho más Por ejemplo, un
periodista podría utilizar modelos de
texto para resumir artículos grandes o reportajes Un investigador académico
podría extraer entidades
específicas de información
de un corpus masivo de artículos, o en una sesión de lluvia de ideas, un emprendedor
podría utilizar el modelo para generar nuevas ideas
o perspectivas Como se mencionó anteriormente,
estos modelos funcionan de manera efectiva desde el primer
momento. No obstante, si deseas que el modelo siga ciertas
especificaciones, puedes proporcionar ejemplos
estructurados para guiar sus respuestas. Esto permite una experiencia
personalizada que se alinea con sus
necesidades y objetivos específicos A continuación, centrémonos en el diálogo. Estos modelos
también están basados en texto, pero han sido afinados para mantener una conversación natural. Los modelos de diálogo le permiten
participar en conversaciones de múltiples
turnos, manteniendo el contexto a
lo largo de la interacción. Considere un escenario en un centro de
atención al cliente, un chatbot de IA impulsado por estos modelos de diálogo
puede ayudar a los clientes a recordar el giro anterior de la conversación y proporcionar respuestas conscientes del
contexto Puede responder preguntas,
resumir información o incluso guiar a los usuarios a través de procedimientos
complejos, o mientras se ajusta
a su dominio específico Estos modelos pueden ayudarle a crear herramientas
poderosas que
mejoran enormemente la experiencia del usuario, ya sea implementadas en
un navegador, una aplicación móvil u otras interfaces
digitales. Pasando a la
finalización y generación del código. Estos modelos actúan como su asistente de codificación
sobrealimentado. Puedes dar un baile de graduación en
lenguaje natural para describir una pieza de
código que quieras escribir, o puedes usar el modelo para
completar automáticamente una pieza de código. Incluso hay extensiones
para IDE que pueden tomar un fragmento de código parcial como entrada y luego proporcionar
la continuación probable Imagina que estás trabajando en un proyecto de software
complejo. Puede ayudar a eliminar los
tediosos aspectos de la codificación, incluso proporcionar ayuda con la
depuración de su código,
lo que le permite, como
desarrollador, centrarse más en
la resolución creativa de problemas
y menos en la sintaxis
o Y ahora vamos a
sumergirnos en la generación de imágenes. Estos modelos
le permiten generar y editar imágenes de acuerdo
a sus especificaciones. Además, puede utilizar estos modelos para tareas relacionadas con
los medios, como clasificación, detección de
objetos y más. Además, estos modelos
suelen incorporar mecanismos de moderación de
contenido para garantizar prácticas de seguridad de
IA responsables Imagina que estás construyendo
una plataforma de comercio electrónico. Un modelo para la detección de objetos puede etiquetar
automáticamente los artículos
en las imágenes del producto, mientras que un modelo de
generación de imágenes puede crear nuevas imágenes de productos
basadas en descripciones. La
función de moderación de contenido garantizaría que todo el contenido generado por el usuario se alinee con la política de su
plataforma, mejorando la experiencia del usuario,
por último pero definitivamente no menos importante Hablemos de incrustaciones, que pueden sonar
un poco complejas, pero en realidad es un concepto
realmente genial Entonces déjame explicártelo. Imagina que tienes una enorme canasta de frutas y
quieres resolverlas. Podrías ordenarlos por color, tamaño, peso o incluso sabor. De igual manera, en el mundo de los datos, muchas veces
necesitamos ordenar
o categorizar las cosas Pero las cosas a las que
nos enfrentamos son palabras o
frases, no frutos. Ahí es donde entran las
incrustaciones. Son como una tarjeta de identificación única
para cada palabra o frase, pero en lugar de una tarjeta, es una lista de números, que llamamos vector. Esta lista de números captura la esencia de esa
palabra o frase. Es significado es contexto y sus relaciones
con otras palabras. Con las incrustaciones, podemos dar
sentido a los datos no estructurados, como un libro largo o un feed de Twitter y usar
este entendimiento para hacer cosas como alimentar motores de
recomendación o orientar anuncios de manera
más efectiva Por ejemplo, consideremos
el ámbito del comercio electrónico. Un modelo de incrustación se puede utilizar para impulsar motores de
recomendación, haciendo coincidir a los usuarios con los
productos que más probablemente
les interesen
en función de su historial de navegación O en marketing digital, estos modelos pueden mejorar los sistemas de segmentación de
anuncios, permitiendo una publicidad altamente
personalizada. También se pueden usar para tareas
complejas de clasificación, funcionalidad de
búsqueda y
muchas otras aplicaciones. Entonces, en conclusión, los modelos
fundacionales representan un
avance significativo en la tecnología de IA. Ofrecen una potente base
adaptable que se puede utilizar para una amplia gama de tareas desde el primer
momento. Con plataformas como Model Garden de
Vertex AI, estas herramientas son más
accesibles que nunca, poniendo
capacidades avanzadas de IA en manos
de una
población mucho más amplia de usuarios Desde tareas de lenguaje natural hasta diálogo
multigiro, implementación de
código, generación
y modificación de
imágenes y extracción de
información semántica, las aplicaciones potenciales
de estos modelos son vastas Ya sea mejorando el
servicio al cliente con chatbots de IA, ayudando a los desarrolladores con código generado
automáticamente o impulsando motores de
recomendación, los modelos
básicos están
dando forma al futuro de la IA Con los modelos fundacionales y
el poder de la IA generativa, no solo
estamos
prediciendo el futuro Lo estamos construyendo.
En el siguiente video, vemos algunas de las
increíbles aplicaciones que ofrecen
diferentes tipos de modelos
generativos de IA
14. L3V5: desarrollo de LLM: Hablemos de cómo se desarrollan los modelos de
lenguaje de gran tamaño. En este video, comenzamos
por ofrecer una comparación entre el desarrollo de LLM y el desarrollo aprendizaje automático
tradicional Luego hablaremos sobre tres tipos principales
de LLM, y al final, discutiremos un concepto llamado razonamiento
de cadena de pensamiento y cómo eso puede ayudar a diseñar
mejores indicaciones para Comencemos
comparando el
desarrollo de LLM usando modelos preexistentes con el enfoque tradicional del desarrollo de aprendizaje
automático En el mundo LLM, no
hay requisito previo
para la experiencia técnica o extensos
ejemplos de capacitación, ¿y adivina qué? También puedes olvidarte
del entrenamiento de modelos. Se trata del
arte del diseño rápido, claro, conciso y lleno
de información útil. Por otro lado, el aprendizaje
automático tradicional requiere que te arremangues y
profundices en ejemplos de entrenamiento, entrenamiento de
modelos
e incluso a veces necesitando un conocimiento básico de hardware y potencia informática. Hay tres tipos
principales de LLM,
genéricos, instrucción
sintonizada y diálogo sintonizado Cada uno de estos modelos requiere su estilo único de incitación. Los modelos genéricos de lenguaje funcionan como el autocompletado de tus teléfonos, predicen la siguiente palabra
en función de los patrones
lingüísticos de los datos de entrenamiento Los modelos sintonizados por instrucción,
por otro lado, responden a directivas
específicas, ya sea resumiendo un texto, generando un poema al
estilo de un poeta famoso, u ofreciendo un
análisis de sentimiento de una declaración Estos modelos siguen
las instrucciones incrustadas en la entrada. Por último, tenemos modelos sintonizados con
diálogo. Estos son un subconjunto de modelos sintonizados por
instrucción
diseñados específicamente para el contexto
interactivo, igual que un chat con un bot. Entonces, profundicemos en ejemplos de estos tres tipos y los
veamos en acción. Antes de saltar a ejemplos
de diferentes tipos de LLM, proporcionemos una
definición para los tokens Un token es una unidad de datos
que procesa el modelo. Puede ser una palabra
o parte de una palabra. Comenzaremos con los modelos
genéricos de lenguaje. Son bastante directos. Su tarea principal es predecir la palabra posterior a partir
del contexto proporcionado
por los datos de entrenamiento. Tomemos un ejemplo sencillo. El gato se sentó y ahora
queremos saber cuál la siguiente palabra más probable es el modelo nos dice
la es esa respuesta. Al igual que lo
sugerirían las funciones de
autocompletado de tus teléfonos sugerirían las funciones de
autocompletado Es una
visión fascinante de cómo la IA
puede imitar la forma en que nos comunicamos
naturalmente Pasando a los modelos
sintonizados por instrucción, estos modelos brillan a la
hora de generar respuestas. Toman su ejemplo de las instrucciones
dadas en la entrada, ya sea una solicitud
para resumir un texto, generar un poema en
un estilo particular, o incluso clasificar
un sentimiento de texto Es como tener tu
propio asistente digital, siempre en espera para
llevar a cabo tus
instrucciones con precisión. Y por último, tenemos modelos sintonizados
dialectos, que son un tipo especializado
de modelos sintonizados por instrucción Sin embargo, no solo están
esperando instrucciones. Están entrenados para
entablar una
conversación de ida y vuelta. lo general, podrías
encontrarlos en forma de chatbots Si alguna vez le has hecho una pregunta a un asistente
virtual, es probable que hayas interactuado
con este tipo de modelo Se trata de permitir una
interacción conversacional natural Ahora es el momento de explorar
un concepto interesante, la cadena del razonamiento del pensamiento. Esta es una observación de que los modelos son más
precisos en la producción respuestas
correctas cuando
generan por primera vez una vía de razonamiento o cadena que
conduce a la respuesta. Consideremos un ejemplo sencillo. Roger tiene cinco pelotas de tenis
y compra dos latas más, cada una con tres bolas ¿Cuántas bolas tiene ahora
Roger? Inicialmente, el modelo podría tener dificultades para dar
la respuesta correcta. Sin embargo, después de presentar
el problema por segunda vez, el modelo es más probable
que concluya con
la respuesta correcta. El razonamiento de la cadena de pensamiento
ayuda a mejorar la comprensión y las capacidades
de
respuesta de los modelos de lenguaje grande. En conclusión, el
desarrollo e implementación de grandes modelos de lenguaje abren nuevas y
emocionantes vías en el
mundo del aprendizaje automático A medida que continuamos mejorando y
refinando estas tecnologías, anticipamos un futuro en el que comprensión
avanzada del lenguaje por parte IA cambie drásticamente nuestra interacción con las plataformas
digitales Ahora que entendemos
cómo se desarrollan las LLM, es el momento de ver por qué es
importante
sintonizarlas para tareas específicas y cómo podemos sintonizar las
LLM de una manera eficiente Nos vemos en el siguiente video.
15. L3V6: LLM de ajuste: En este video, hablaremos sobre la importancia de afinar LLM para tareas específicas y
cómo hacerlo de manera eficiente Es un
pensamiento interesante tener un modelo que pueda
manejar todo. Pero en la práctica, los LLM vienen con su
parte justa de limitaciones Para aumentar su
confiabilidad y eficiencia, LLM necesitan ser ajustados para tareas
específicas y en el conocimiento de dominio
específico Al igual que un atleta profesional especializado en su deporte, estos modelos necesitan refinar sus habilidades para dominar
su rendimiento. Empecemos con un ejemplo de tarea
simple. Contestador de preguntas. Este es un subdominio del
procesamiento del lenguaje
natural que se trata de responder
automáticamente a las preguntas planteadas en el lenguaje
cotidiano Estos sistemas de preguntas y respuestas son potencias capaces de
abordar una variedad de preguntas, desde
fácticas hasta
basadas en opiniones gracias a su
amplia capacitación en Sin embargo, el
ingrediente secreto para éxito de
este modelo
es el conocimiento del dominio. Considera esto. desarrolla un modelo de control de calidad
para atención al cliente, atención médica o cadena de suministro, conocimiento del
dominio se convierte en
un requisito crítico. En atención al cliente, un LLM sintonizado con
dominio podría proporcionar información detallada sobre suscripciones y servicios, asegurando que sus clientes reciban eficiente asistido por IA En el ámbito de la educación, estos modelos pueden ofrecer información
detallada
sobre cursos, tasas de
matrícula o políticas
académicas. Para la atención médica, podrían servir como
herramientas de autogestión para los pacientes, proporcionando información crítica
relacionada con la salud. negocios minoristas
podrían beneficiarse de mejores chatbots de IA y visualización de
productos, elevando la experiencia del
cliente Y en el ámbito de la gestión de la cadena de
suministro, LLM podrían ofrecer valiosa información logística
e información sobre el inventario Y no nos olvidemos de
las grandes empresas tecnológicas. Podrían usar estos modelos para brindar
soporte técnico superior a los clientes. Cada sector tiene sus propios requisitos
únicos, y ajustar un LLM, acuerdo con estas
especificaciones, puede mejorar drásticamente
la efectividad del modelo Mientras que los modelos generativos de preguntas y
respuestas pueden usar su
base de conocimientos de entrenamiento para responder preguntas sin necesidad de conocimientos
específicos del dominio, Fne afinando estos modelos en conocimiento específico del
dominio aumenta
significativamente su
precisión Es como proporcionar al modelo un mapa detallado del terreno por el
que se supone que debe navegar. Toma Vertex AI como ejemplo. Proporciona modelos de
bases específicas para tareas que ya están ajustados para
una variedad de casos de uso. Digamos que quieres entender sentimientos de
tus clientes hacia mejor los
sentimientos de
tus clientes hacia
tu producto o servicios Vertex AI tiene un modelo de tareas de
análisis de sentimientos que es el adecuado para el Quizás estés en el sector minorista
o inmobiliario, y necesitas realizar análisis de
ocupación. También hay un modelo específico de tarea
diseñado para eso. Estos modelos perfeccionados
para tareas específicas, demuestran el valor de la afinación Son más
eficientes, dirigidos y efectivos en sus
respectivos trabajos. La capacidad de seleccionar y
utilizar un modelo que se alinee con sus necesidades específicas
puede
mejorar drásticamente la efectividad general
de sus soluciones de IA Bien, ahora es el momento de definir
formalmente a qué
nos referimos con afinación. La afinación se refiere al proceso de adaptar un modelo pre
entrenado a una tarea más específica
como un conjunto de casos de uso
personalizados o nuevo dominio
entrenándolo sobre nuevos datos. La afinación se logra
entrenando el modelo sobre nuevos datos que son relevantes
para la tarea en cuestión. Por ejemplo, si estamos trabajando dentro del sector legal
o médico, recopilaríamos datos de
capacitación de estos dominios para afinar
nuestro modelo en consecuencia. Pero, ¿qué es la afinación fina? Piense en la afinación fina como un
ajuste de alta precisión para el modelo. Traes tu propio conjunto de datos
y vuelve a entrenar el modelo, afectando cada
peso en el LLM Puede ser un trabajo intensivo en mano de obra y
recursos y requiere alojar su
propio modelo de ajuste fino. Y eso puede hacer que sea
poco práctico para muchos casos de uso. Pero es importante saber
que un modelo de afinación fina está equipado con un alto nivel
de precisión y especificidad. Tomemos un ejemplo del
mundo real para ilustrar el poder
de la afinación fina. Imagínese un modelo de
fundación de atención médica que ha sido ampliamente capacitado en una amplia
gama de datos de atención médica. Puede realizar diversas
tareas sin problemas, respondiendo preguntas médicas,
analizando imágenes médicas, encontrando pacientes con
afecciones similares y mucho más. La razón detrás de
este éxito es afinación con el conocimiento
específico del dominio. Al hacerlo, se convierte en especialista en
lugar de generalista, entregando resultados precisos
y confiables dentro del contexto de la atención médica Este proceso subraya
el inmenso potencial y versatilidad de la afinación, transformando un modelo de
talla única en una herramienta altamente especializada para navegar por escenarios de
atención médica complejos La afinación fina es una excelente manera impulsar el rendimiento de un modelo, pero similar a renovar toda
una casa, puede
ser costosa y
no siempre práctica Entonces, si buscamos
una manera más eficiente afinar
modelos de lenguaje grande, ¿qué podemos hacer? Un enfoque a seguir son métodos de ajuste eficientes de
parámetros o PETM para abreviar Piense en PETM como
darle a su modelo un cambio de imagen en lugar de
una renovación completa Normalmente, con la afinación fina, ajustamos todos los
parámetros del modelo, lo cual es complicado
y consume mucho tiempo. Pero con PETM, nos
enfocamos en cambiar solo un pequeño subconjunto de estos parámetros o incluso
agregar algunos nuevos. A lo mejor agregamos algunas capas
adicionales
al modelo o agregamos una información
extra. Descubrir la
mejor manera de hacerlo sigue siendo un tema candente
entre los investigadores La clave para llevar aquí es que
PETM es como un atajo. Nos ayuda a evitar la necesidad de volver
a entrenar todo el modelo, ahorrándonos tiempo,
esfuerzo y recursos Además, incluso simplifica el proceso de
usar estos modelos más adelante, ya que solo usamos el modelo base y
agregamos nuestros bits adicionales Ahora hemos llegado a
la conclusión de nuestra exploración en el mundo
de los grandes modelos lingüísticos. A partir de esta sección, hemos obtenido valiosos conocimientos sobre las LLM, comenzando con una introducción a su estructura y función Discutimos los numerosos
beneficios de usar LLM y proporcionamos algunos
ejemplos para ellos,
incluyendo Palm, Lambda y GPT También hablamos sobre el
proceso de desarrollo de LLM, destacando en qué se diferencia del desarrollo
de
aprendizaje automático tradicional Y lo más importante,
subrayamos la importancia
de afinar LLM Sumérgete en las formas en que mejora su
confiabilidad y precisión. Hemos visto cómo el conocimiento
específico del dominio puede mejorar significativamente su rendimiento
y aprender sobre ajuste
eficientes como los métodos ajuste eficientes de
parámetros. En la siguiente sección,
nos
familiarizaremos con cuatro
herramientas principales en Google Cloud que nos
permiten acceder
y afinar modelos
generativos de IA y construir nuestras propias aplicaciones generativas
16. L4V1: hoja de aplicaciones: Hablemos de apshet una innovadora
plataforma sin código de Google que
está aprovechando el poder de la IA
generativa para transformar
el desarrollo de aplicaciones a nivel global Imagine un mundo en el que cualquiera, independientemente de sus habilidades de
codificación, pueda
crear rápidamente aplicaciones centradas en datos
para el espacio de trabajo de Google. Eso es exactamente lo que
apsheet está diseñado para hacer. Recuerde el tedioso proceso del desarrollo tradicional de aplicaciones, desde la conceptualización
hasta la redacción de
especificaciones del proyecto, y desde la
colaboración en equipo hasta la codificación, fue un viaje largo y
exhaustivo Pero con apsheet el ciclo de vida del
desarrollo de aplicaciones se
ha simplificado
drásticamente Lo que solía llevar meses ahora
se puede lograr en
días o incluso horas, liberando su tiempo para tareas
más valiosas La belleza de Apshet
es su versatilidad. Le permite crear
aplicaciones para múltiples plataformas, incluidas aplicaciones de escritorio, móviles
y chat. Apsheet proporciona una variedad de aplicaciones que son tan
variadas como sus necesidades específicas Puede ser que esté
administrando un almacén y necesite una solución optimizada
para el seguimiento de inventario. Quizás esté organizando
un evento corporativo importante y necesite una herramienta de planificación de
eventos detallada, o tal vez esté ejecutando una campaña de
marketing multifacética masiva y necesite una aplicación para coordinar
las muchas partes móviles Desde la gestión de
relaciones con los clientes hasta la coordinación de la cadena de suministro, programación de
empleados hasta la gestión de
proyectos. Apsheet es lo suficientemente adaptable para manejar sus necesidades específicas. Su flexibilidad y versatilidad abren las puertas a
innumerables escenarios, convirtiéndola en una plataforma de acceso para desarrollar aplicaciones centradas en
datos personalizadas. Siempre y cuando tengas una idea
clara de lo que necesitas y puedas
explicarlo en lenguaje natural, apsheet puede ayudarte a convertir esa
idea en una aplicación Así que vamos a bucear más profundo. Recientemente, Apshet introdujo
nuevas capacidades todas impulsadas por IA generativa Ahora, puedes convertir tu idea en una
app completamente funcional en cuestión de minutos, y puedes hacerlo
usando lenguaje natural. Por ejemplo, quieres crear una app para el seguimiento de los gastos
de viaje. Todo lo que necesitas hacer es
describir tu proceso para apset. Aphet luego se hace cargo de hacer preguntas de
seguimiento para
comprender mejor los
requisitos de su aplicación Una vez que Apsheet ha recopilado
suficiente información, presenta una vista previa
de las tablas para su aplicación e incluso proporciona datos de muestra
para ayudarlo a probarlo Entonces Upseet procede a crear
la aplicación de inicio para ti. Tan pronto como la app esté lista, podrás iniciarla, probarla y hacer
los ajustes necesarios. Curiosamente,
puedes continuar usando lenguaje
natural para especificar
los cambios que deseas, y apsheet
te ayudará a refinar tu aplicación Crear una app a través del lenguaje
natural
con cero codificación, esa es la magia de apsheet Permite a cualquier persona
desarrollar aplicaciones para su organización de manera
rápida y eficiente Entonces veamos cómo Apsheet aprovecha la IA generativa para que esto sea
posible Cuando el usuario
interactúa con apheet, Dialogflow y la IA generativa, ayudados por un LLM capacitado a medida, trabajan juntos para proporcionar
la información necesaria para crear la aplicación la información necesaria para crear la flujo dialecto recopila información
esencial sobre el problema comercial del usuario que Apsheet utilizará para
construir una Apsheet intenta que
esta aplicación se alinee lo
más posible con
la solución ideal del usuario Después de que Direct flow haya recopilado
la información requerida, Apsheet envía una
solicitud al LLM para
ayudar a generar
el modelo de datos y las vistas necesarias para la aplicación Cuando el LLM proporciona
el esquema correcto, apsheet utiliza toda la información
recopilada para crear una aplicación inicial
en solo unos minutos La aplicación entregada incluye
una base de datos completa, una interfaz de aplicación intuitiva y cualquier configuración específica que se expresó
durante la interacción, como
las preferencias de notificación. Una vez que la aplicación de inicio esté lista, los usuarios pueden seguir
colaborando con Apsheet para afinar y
mejorar aún más la aplicación Dependiendo de la
complejidad de la solicitud, apsheet puede utilizar
tanto Dialogflow
como LLM durante La combinación de
Dialect flow y LLM mejora
las capacidades de Apheet, lo que le permite manejar incluso las solicitudes de desarrollo de aplicaciones más complejas Incluso puedes personalizar
estas dos tecnologías. Para el flujo dialecto, puedes
personalizarlo para ayudarte a
crear interfaces de
chat conversacionales Así es como lo haces. Primero, se crea un agente de flujo
dialecto. Luego defina su
intención y entidades personalizadas. Una vez hecho esto, la API de flujo
dialecto está ahí para ayudarte a integrar este agente en
tu aplicación En esencia, estás
adaptando una pieza de tecnología
sofisticada
a tus necesidades específicas Para el LLM, puede
diseñar un modelo para satisfacer las demandas
únicas de
su aplicación con el AI Studio
generativo de Vertex AI Esta plataforma presenta una
gama de modelos fundamentales de Google Cloud que puedes refinar de acuerdo
a tus necesidades Esto se puede lograr
formulando y ajustando las indicaciones según sea necesario y perfeccionando los
modelos utilizando sus propios Entonces, en conclusión, al beneficiarse de las tecnologías generativas de
IA, específicamente el flujo
Dialect de Google y un LLM entrenado a medida, Appset permite a cualquier
individuo desarrollar aplicaciones impulsadas por
datos sin experiencia en codificación y
en Se ha convertido en una
poderosa plataforma que permite a los usuarios generar diferentes aplicaciones usando lenguaje
natural. Y con eso concluye
esta sección sobre cuatro potentes herramientas
generativas de IA disponibles en Google Cloud En la siguiente y última
sección de este curso, intentaremos utilizar
estas herramientas para construir nuestra propia aplicación utilizando
el poder de la IA generativa
17. L4V2: creador de aplicaciones de generación: El creador de aplicaciones Jen disponible a través de Vertex AI de Google
Cloud combina
magistralmente
los modelos básicos con la fuerza de la búsqueda
y la IA conversacional, permite a una nueva gama
de usuarios crear aplicaciones
innovadoras de
IA generativa en poco tiempo y
sin necesidad de habilidades de codificación La
naturaleza humana y atractiva de
las interacciones en línea presenta una oportunidad para que
los usuarios mejoren sus conexiones con
su audiencia potencial. Para las empresas, esto significa una mejor comunicación
con clientes, empleados y socios. Con Jen App Builder, creación de estas potentes aplicaciones
GN AI no requiere
ninguna codificación en absoluto. Piensa en crear tu asistente digital
personalizado, motores de búsqueda
personalizados, bases de
conocimiento,
aplicaciones educativas y mucho más Con Jen App Builder, tienes el poder de dar vida a
esas visiones. El Jen App Builder cuenta con una interfaz de
caída de dragón fácil de usar, lo que hace que el proceso de diseño y desarrollo de aplicaciones sea
mucho más fluido. Cuenta con un
editor visual que te permite crear y modificar
fácilmente el contenido de
tu app. El
motor de búsqueda incorporado permite los usuarios encontrar información
dentro de la aplicación, mientras que el motor de
IA conversacional permite interacciones
en lenguaje natural Por lo que Jen App Builder brinda la flexibilidad para crear una experiencia de búsqueda empresarial, una
experiencia de conversación o chat, o incluso ambas. El proceso es sencillo. Empiezas construyendo
una fuente de contenido, que podría ser un documento de
Word o una hoja de cálculo que contenga
información sobre tu negocio A continuación, selecciona las funciones que te gustaría
incorporar a tu app. Esto podría ser búsqueda,
chat, o ambos. Y una vez que hayas terminado,
simplemente presiona Crear. Pero espera, hay más. Esta app también
te permite controlar y personalizar las respuestas generadas o crear respuestas predeterminadas. Si eso no es suficiente, siempre
puede acceder al control
granular sobre las respuestas con opciones para
controlar el tipo de respuesta, establecer términos prohibidos y deshabilitar
las respuestas generadas cuando sea necesario. Pero no te preocupes. Incluso con las respuestas
generadas deshabilitadas, tu aplicación GaiPowered aún
puede responder preguntas
complejas gracias a la tecnología de búsqueda de
Google Jen App Builder también tiene la capacidad de completar transacciones en
nombre del usuario. Con la integración de flujos
preestructurados para casos de uso
comunes
como verificar estado de los
pedidos o
explicar facturas, puedes agregar sin esfuerzo estas funciones a tu app
con un solo clic, pero no se limita a proporcionar funcionalidades predefinidas Le permite crear su
flujo de transacciones único con la ayuda de una interfaz simple basada en gráficos para delinear la lógica de
negocios de alto nivel. Si lo prefieres, incluso
puedes hacer uso de la
creación de flujo basada en
prontas para explicar tu lógica usando un lenguaje natural
sencillo. Una vez que esté satisfecho con las configuraciones de
su aplicación, estará lista para probar. Y si todo se ve bien, Jen App Builders en
integraciones integradas facilita un lanzamiento sin problemas de su aplicación en su sitio web o plataformas de
mensajería populares También ofrece conectividad
con socios de telefonía. Para implementar tu nueva app, solo
necesitas obtener el
widget Código de implementación. Es tan sencillo como eso. Entonces puedes ver que Jen App Builder
te permite publicar fácilmente tu conversación o searchbt un sitio web o conectarte a aplicaciones de mensajería
populares Jen App Builder aprovecha el
poder de la IA, lo que le permite
crear chatbots que pueden manejar tareas como responder preguntas específicas del
dominio, procesar entradas multimedia y entregar respuestas
multimodales Estos bots de chat pueden guiar a
los usuarios hacia contenido relevante y entregar respuestas generativas de IA incluso sin conocimientos específicos del
dominio Y pueden completar
transacciones, resumir información usando IA y tener la
flexibilidad de pausar y reanudar las conversaciones
cuando sea necesario Con Jen Abilder,
estás creando asistencia
digital que redefine estándares de las interacciones
en En conclusión, Jen
Abuilder es donde se unen las fortalezas de los modelos
básicos actuales de Google, búsqueda
empresarial y la IA
conversacional Le permite crear
sin esfuerzo aplicaciones
avanzadas que
redefinen interfaz fácil de usar y un editor visualmente
atractivo allanan el camino para la creación y modificación del contenido de la aplicación
con el mínimo esfuerzo Con capacidades que van desde motores de búsqueda
integrados hasta un motor de IA conversacional y una interfaz
intuitiva y fácil de usar, Jen App Builder ofrece un amplio kit de herramientas para crear aplicaciones
dinámicas receptivas Puedes construir chatbots
capaces de entradas multimedia, respuestas
multimodales y preguntas específicas de
dominio Y con la capacidad de completar transacciones y pausar
y reanudar conversaciones, estos chatbots son
más que simples bots ordinarios Están diseñados para manejar las tareas
e interacciones más complejas, todo a la vez que son
fáciles de publicar y conectarse a su sitio web o aplicaciones de mensajería
populares. Ahora pasemos al siguiente interesante App Builder
disponible en
la hoja de aplicaciones de Google
Cloud.
18. L4V3: Maker Suite: Maker SID es una herramienta intuitiva basada en
navegador diseñada para
permitir la creación de prototipos rápida y
fácil con Palm para modelar La integración de
Maker SUID con Palm API significa que ahora podemos
acceder a la API a través de una interfaz
gráfica fácil La API de Palm es una puerta de entrada a los modelos de lenguaje grande de
Google
y a las herramientas generativas de IA, lo que facilita la creación de prototipos eficientes
y accesibles en el tiempo Esta plataforma
le permite probar modelos rápidamente y experimentar
con diferentes indicaciones. Puede usarlo para crear
y afinar sus indicaciones, agregar datos sintéticos a
su conjunto de datos personalizado, generar incrustaciones de
vanguardia y ajustar sus
modelos personalizados con facilidad Y si se te ocurre
algo con lo que estés contento, haz que tu Suite te ofrezca la capacidad de
convertirlo en código Python, haciendo posible llamar
al modelo usando la API de Palm. Palm API y Maker Suite son el dúo perfecto para el desarrollo
generativo de IA Palm API es tu
punto de partida para acceder a las LLM de Google, dando a los desarrolladores
la libertad de usar modelos optimizados
para diversas tareas Por otro lado,
Maker Suite proporciona una interfaz intuitiva para comenzar a prototipos y crear
tus aplicaciones únicas Ahora, echemos un vistazo
al interior de Maker Suite y veamos cómo podemos comenzar a crear prototipos con modelos de lenguaje
grande
en solo minutos Entonces así es como se ve dentro de
Maker Suite. Echemos un vistazo a este
menú de la izquierda. Aquí, podemos crear nuevas indicaciones. Como podemos ver, hay
tres tipos diferentes de indicaciones que podemos
crear mensajes de texto, indicaciones datos y mensajes de chat También tenemos acceso
a nuestra biblioteca, que es la página actual
que está abierta en este momento. Si vas a obtener ApiKey, podemos verlo aquí, tenemos la opción de crear una clave API para un nuevo proyecto Y también hay otros enlaces
rápidos disponibles. Hay una guía para
comenzar. Hay una galería rápida que te
ayuda a explorar diferentes
tipos de indicaciones. Hay documentación de API y algo más de información sobre política de
privacidad y
términos de servicio. Ahora volvamos a nuestra biblioteca y probemos
diferentes indicaciones. El primero es
prompt de texto. Vamos a probarlo. Entonces aquí, hay
cosas interesantes para explorar. Lo primero que hay que notar
son estas indicaciones de muestra. Hay algunos ejemplos
que nos ayudan a tener una mejor idea de cómo podrían verse estas
indicaciones Además, si le pones
atención a los libros de texto, podemos ver que hay algunos
ejemplos proporcionados para nosotros. Leamos algunas de ellas. Categorizar una manzana como
fruta o verdura. Escribe una función de JavaScript
y explícamelo. Parafraseando,
parece que está
a punto de llover y muchos
otros ejemplos más Simplemente muestra qué tipo
de indicaciones puedes usar como ejemplos
de un prompt de texto Ahora, exploremos una de las muestras que
se proporcionan aquí. Echemos un vistazo a las ponderaciones
casuales. Entonces, el mensaje sería reescribir
esto en un correo electrónico casual, y luego proporcionas
un mensaje de texto para un correo electrónico Puedo hacer clic en Ejecutar y ahora puedo ver que
el modelo de idioma creó una respuesta a mi prompt. Exploremos el otro tipo
de aviso, el prompt de datos. Entonces aquí, podemos ver que
hay dos partes distintas. El primero es una tabla para
escribir nuestros ejemplos rápidos. Y la segunda parte es para
ayudarnos a probar nuestro prompt. Entonces veamos un ejemplo
y veamos cómo se vería. Probemos con los opuestos. En los ejemplos, vemos
que estamos proporcionando cuatro ejemplos diferentes
de lo que cada una de estas entradas debería
recibir como salida. Entonces, si nuestro prompt es encontrar una palabra o frase
con significado opuesto, entonces podemos proporcionar ejemplos
como si la entrada es fuerte, la salida debería ser débil. Si la entrada es gruesa, la salida debe
ser delgada y así sucesivamente. Después de proporcionar estos ejemplos, podemos probar nuestro prompt. Ahora, preguntamos el modelo de idioma. Si la entrada es incorrecta, ¿cuál sería la salida? Y si la entrada es rápida, ¿cuál debería ser la salida? Y ahora si corremos, vemos que en
respuesta al mal, el modelo de lenguaje
está creando bien, y para la entrada rápida, el modelo de lenguaje crea lento. Podemos ver que por cada entrada, el modelo de lenguaje crea
lo contrario que la salida. Exploremos el tercer tipo
de prompt, prompt de chat. Aquí, también podemos ver
que hay dos partes. Hay una parte para escribir nuestros ejemplos rápidos y otra parte para
probar nuestro aviso. Entonces echemos un vistazo a algunas
de estas muestras. Intentemos platicar con un extraterrestre. Entonces en el ejemplo, brindamos algún contexto. Sé un extraterrestre que vive en una de las de
Júpiter y da
un ejemplo Si el usuario dice,
cómo va, el modelo debería decir,
me va bien y así sucesivamente. Si quieres agregar
más ejemplos, tenemos la opción aquí abajo. Y ahora podemos probar nuestro modelo. Entonces en respuesta, decimos, me gustaría visitarlo.
¿Qué debo hacer? Pero el modelo brinda una respuesta que es relevante y continúa
la conversación. Podemos seguir interactuando con el modelo escribiendo
más indicaciones. También tenemos algunas opciones
para afinar el modelo a continuación. El primero es
una vista previa de texto del mismo
prompt en el que estamos trabajando. Ya sea un
prompt de tabla o un prompt de chat, siempre
podemos tener acceso a la versión
de texto del mismo prompt. A través del otro,
podemos afinar nuestro modelo. Podemos elegir qué tipo
de modelo queremos utilizar. Podemos establecer la temperatura
que define el nivel de aleatoriedad o creatividad
del modelo, y también podemos personalizar el número de salidas que el
modelo debe producir También hay algunos ajustes más
avanzados disponibles. Entonces, para recapitular, primero, seleccionamos nuestro
tipo de prompt e ingresamos un prompt, incluyendo cualquier ejemplo
e instrucciones Sea cual sea el tipo de prompt que utilices, siempre
tienes la opción
de verlo en forma de texto. Si necesita probar
la salida de los modelos, haga que su traje le resulte sencillo
reutilizar las indicaciones diferentes maneras mediante el uso de
entradas de prueba en sus indicaciones También tenemos la flexibilidad para jugar con los parámetros del
modelo. Por ejemplo, hay una opción para ajustar el ajuste de
temperatura, lo que influye en el elemento de aleatoriedad en las respuestas de los
modelos Un valor más alto aquí
a menudo conduce a salidas
más inesperadas o
incluso creativas. También podemos hacer ajustes
adicionales a parámetros
como secuencias de parada, número de salidas, etc. Y por último, después de que estés
satisfecho con tu prompt, podrás guardarlo, compartirlo e incluso exportarlo a diferentes entornos de
desarrolladores. Para guardar sus mensajes, Maker Suite ofrece una función de biblioteca
rápida, que actúa como un
espacio de almacenamiento seguro para todos sus mensajes, que los hace fácilmente recuperables También puedes guardar tus
indicaciones en tu Google Drive. Compartir su mensaje es tan
simple como hacer clic en
el botón Compartir. Y si estás buscando exportar tu trabajo a un entorno de
desarrollador, simplemente presiona el botón Obtener código. Puedes exportar tus mensajes
en el formato que más te convenga. Código Python o JavaScript, Objetos
JSON, o incluso
como un comando CURL. Tu trabajo en Maker Suite,
incluyendo la configuración, las instrucciones y los ejemplos de prueba ,
se almacenan en
este fragmento de código Entonces, en conclusión,
la combinación de Palm API y make
your Suite ofrece un enfoque increíblemente conveniente
y fácil de usar para la creación de prototipos con modelos de lenguaje
grande Ponen en tus manos el poder de la IA
generativa, proporcionando la flexibilidad
para experimentar, modificar y refinar hasta que hayas creado la aplicación perfecta
impulsada por IA Nos vemos en la siguiente.
19. L4V4 Estudio de IA generativa: A medida que crece la emoción en torno a la IA
generativa, podemos ver que su
poder para acelerar el
proceso de creación de prototipos de aplicaciones cambia las reglas del juego Si tiene acceso a las herramientas adecuadas, como
Generative AI Studio y otras
capacidades GNAI que están disponibles ahora a través de
Vertex AI en Google Cloud, puede experimentar, adaptar y perfeccionar nuevas ideas en Y por Snap, me refiero a minutos u horas en lugar
de semanas y meses. Crear una aplicación es
tan fácil como abrir el estudio generativo de IA en la sección Vertex AI de Google Cloud
Console Seleccionando la modalidad con la
que quieres trabajar, eligiendo tu
formato preferido e ingresando
tu prompt y ajustando los parámetros del
modelo para un control
adicional Con Generative AI Studio, tienes la oportunidad de
explorar y adaptar modelos
generativos de IA que adapten
perfectamente a tus aplicaciones de
Google Cloud Incluso puede incrustar estas aplicaciones en su
sitio web o aplicación móvil. En este video,
vamos a explorar generativo AI Studio
disponible en Vertex Pero antes de eso,
veamos brevemente qué otras herramientas están
disponibles en Vertex AI Entonces así es como se ve dentro de
Vertex AI. Si ampliamos el
menú de la izquierda, podremos ver todas las herramientas
que tenemos a nuestro alcance. Podemos ver que
tenemos acceso a jardín
modelo, banco de trabajo
y tuberías También contamos con estudio
generativo de IA, que
hablaremos en breve Además de eso, contamos con
herramientas para la administración de datos, desarrollo de
modelos e implementación y uso de modelos. Generative AI Studio ayuda a
los desarrolladores a crear e implementar modelos al proporcionar herramientas y recursos que
facilitan el inicio Generative AI Studio te permite probar y
personalizar
rápidamente una variedad de modelos básicos de Google
a través de indicaciones y
ajustes , y te permite
implementar fácilmente tus modelos afinados Dentro de Generative Va Studio, puedes acceder a los modelos de
base de lenguaje,
visión y habla de
Google modelos de
base de lenguaje,
visión y habla La disponibilidad de
algunas modalidades varía. Por ejemplo, se puede ver que al momento de
grabar este video, no
tengo acceso
a modelos de visión. Entonces, centrémonos en el
lenguaje y el habla. Centrémonos en el lenguaje por ahora. Puede hacer clic en el
idioma desde el menú de
la izquierda o abrir el botón en la parte inferior
del cuadro de idioma. Si quieres tener una
mejor idea de cómo
puedes usar GN AI Studio
para diferentes propósitos, deberías explorar
la galería rápida. Entonces, antes de explorar los
diferentes tipos de indicaciones, echemos un vistazo a
la galería de mensajes Aquí podemos ver una variedad
de indicaciones de muestra que están prediseñadas para ayudar a
demostrar las capacidades del modelo Las indicaciones de muestra se
categorizan por tipo de tarea, como resumen,
clasificación y extracción Echemos un vistazo a un ejemplo. Al abrir la solicitud de muestra, puede ver que las solicitudes están
preconfiguradas con un
modelo y valores de parámetros específicos Así que simplemente puedes hacer clic en Enviar y obtener el modelo
para generar una respuesta. Para trabajar directamente con
los modelos lingüísticos, tenemos tres opciones. Interactúa con el modelo forma libre o de forma
estructurada, interactúa con el
agente como chatbot o crea un modelo afinado que esté mejor equipado
para nuestros casos de prueba Exploremos el mensaje de texto o código en formato
libre. Así que intentemos diseñar y
probar tus propias indicaciones. Aquí, puedo darle
un aviso al modelo y pedirle que
produzca una respuesta. Acabo de proporcionar un
artículo largo aquí y estoy pidiendo al modelo que proporcione un breve resumen para
el siguiente artículo. Para diferentes tipos de indicaciones, también
puedo usar mi micrófono y
hablar directamente con el modelo En el lado derecho,
también podemos ver que hay algunos ajustes que podemos
usar para configurar el modelo. Podemos elegir qué tipo
de modelo queremos utilizar. Aquí, tenemos dos
modelos de lenguaje y dos de modelos. Podemos establecer la temperatura
para el modelo, que controla el grado de
aleatoriedad o creatividad También podemos establecer el límite de token, que determina
la cantidad máxima salida
de texto a partir de un prompt. Top K cambia
la forma en que el modelo selecciona
tokens para la salida. Top P cambia
la forma en que el modelo selecciona
tokens para la salida, y también podemos establecer diferentes umbrales
de filtro de seguridad Entonces ahora podemos pedirle
al modelo que produzca una respuesta
para nuestro prompt. Hagamos clic en Enviar. Y podemos ver que
el modelo resume el largo artículo
en tres líneas Si está haciendo
algunas indicaciones de toma, una plantilla de solicitud estructurada
está disponible para que sea más fácil al proporcionar un formulario
para contexto y ejemplos Para
indicaciones estructuradas,
volvamos a nuestro ejemplo de
clasificación de vinos Podemos proporcionar algún
contexto al modelo, que instruye cómo debe responder el
modelo También podemos proporcionar múltiples
ejemplos al modelo. Estos ejemplos ayudan al modelo entender cómo es una respuesta apropiada del
modelo. También tenemos nuestros ajustes
en el lado derecho. También tenemos la opción de agregar más columnas para ejemplos más
complejos. Y para probar el modelo, proporcionamos una entrada, ya sea escribiéndola en la sección de entrada o
hablando directamente con el modelo. Y cuando hago clic en Enviar, el modelo genera
una respuesta para mí. Podemos convertir fácilmente cualquier prompt
estructurado a forma libre. Y así es como se ve. Puedes elegir
iniciar un chat de texto o código para iniciar una
conversación con la modelo. Puede proporcionar contexto
y ejemplos de interacciones para
dirigir aún más la conversación. Todos los ajustes para configuración del
modelo están
disponibles aquí también. Ahora, probemos un mensaje de chat. En el prompt de chat, tenemos la opción de darle algún
contexto al modelo, que le instruye sobre
cómo debe responder También podemos proporcionar
ejemplos para ayudar
al modelo a comprender cómo sería
una respuesta adecuada. Por ejemplo, si el
usuario dice esto, el modelo debería decir esto. También tenemos la opción de
brindar más ejemplos
al modelo. Después de proporcionar suficiente
contexto y ejemplos, podemos comenzar a platicar
con el agente. Entonces, si preguntas cuántos planetas hay en el sistema solar, el modelo brinda una respuesta
adecuada. De igual manera, podemos hacer
otras preguntas y el modelo sigue brindando respuestas
adecuadas y
precisas, consistentes con los
ejemplos que brindamos. Ahora, veamos cómo podemos crear un modelo afinado usando
nuestra propia base de datos. Tenemos la opción de afinar un modelo
para que esté mejor equipado
para nuestros casos de uso. Vamos a echarle un vistazo. Así que aquí, podemos elegir nuestro conjunto de datos
JSON y establecer una ubicación para almacenar
el conjunto de datos en la nube. Después de proporcionar el conjunto de datos, podemos ajustar los detalles del modelo, y después de eso,
podemos ajustar el modelo en
función de nuestro conjunto de datos
y nuestra configuración. Para decidir qué modelo
sería el más adecuado para nuestros casos de uso específicos, podemos consultar la
biblioteca de modelos de cimentación de Google, que está disponible
en Model Garden. En Model Garden, puedes
explorar modelos por modalidad, tarea y otras características Con muchos modelos
listos para empresas diferentes a su disposición, Model Garden
le permite seleccionar el modelo más adecuado
dependiendo de su caso de uso, su experiencia en aprendizaje
automático y su presupuesto disponible. Bien, es hora de
revisar los modelos de discurso. Ahora es el momento de explorar
los modelos de habla. Podemos elegir el discurso
ya sea desde el menú la izquierda o haciendo clic en el
abierto debajo del cuadro de discurso. Aquí, tenemos dos opciones
distintas, texto a un discurso
o discurso a texto. Vayamos a texto a discurso. Aquí, podemos proporcionar el texto o
hablar directamente con el modelo. Después de proporcionar el texto, tenemos algunas opciones para elegir diferentes idiomas o establecer
la velocidad del discurso. Si todo se ve bien, podemos hacer clic en Enviar. Y ahora tenemos una voz de IA sintetizada que
puede leer ese texto por nosotros. Crear una aplicación es
tan fácil como abrir el estudio generativo de IA en la sección Vertex AI de Google Cloud
Console Seleccionando la modalidad con la que
quieres trabajar, eligiendo tu formato preferido Para funciones más avanzadas
como soporte para audio más largo, podemos usar Speech Studio y así es como se ve el
entorno. También tenemos discurso a texto. Aquí, podemos subir un archivo de audio o
grabar nuestra propia voz. Y después de dar el
discurso al modelo, podemos ver que lo
convierte en texto. Entonces ahora grabé mi
voz y hago clic en Enviar Y aquí está mi
discurso convertido en texto. También podemos usar el
estudio de discursos para aplicaciones de discurso a
texto. Ambas funciones, voz
a texto y texto a voz están disponibles
en el estudio de voz. Después de haber personalizado su modelo,
tiene algunas opciones. Puede guardar el mensaje en
la galería de mensajes. También puede implementarse plataforma de
aprendizaje automático de
Vertex AI para producción y administración O puede implementar sus modelos recién ajustados directamente en su sitio web
y aplicaciones. En conclusión, a través del estudio de
IA generativa de Vertex AI, podemos acceder a modelos de lenguaje, visión y habla A través de modelos de lenguaje,
podemos probar, sintonizar e implementar modelos de lenguaje de
IA generativos También podemos acceder a la API palm o Cody
para la generación de contenido, chat, resumen,
código y Con modelos de visión,
podemos escribir mensajes de
texto para generar nuevas imágenes usando
la API imagine También podemos generar nuevas
áreas para una imagen existente. Y con los modelos de voz, podemos convertir voz en
texto usando la API chirp También podemos sintetizar
discurso a partir de texto utilizando el modelo de
voz Universal de Google o USM, y eso concluye este video sobre el estudio
generativo Va sobre estudio
generativo Va
20. Demo-demostración de hojas de aplicaciones: En nuestro
video de introducción en apsheet, vimos que a través de
apsheet podemos crear aplicaciones personalizadas
sin escribir código Recientemente, Google agregó capacidades
GNAI, lo que nos hace capaces de explicar directamente el
tipo de aplicación que necesitamos para apht nos construye una aplicación de inicio
basada en esa Luego podemos
modificar y personalizar aún más la aplicación de inicio solo a través del
chat con afheet Consideremos el
siguiente ejemplo. Anne Gray es gerente
de una empresa y una de sus responsabilidades es
supervisar las solicitudes de viaje de sus compañeros de trabajo Estas solicitudes pueden
provenir de correos electrónicos, chat o en reuniones, lo que puede llegar a ser bastante
abrumador. Se pregunta si la función
generativa de IA en apsheet puede
ayudarla a agilizar las operaciones al
facilitar una solución para aprobar y
rastrear Para probarlo,
decide explorar la aplicación de chat apsheet
disponible en Google Chat Veamos cómo funciona. Para acceder a
esta función de chat, vamos a chat.google.com Después seleccionamos Explorar aplicaciones
y encontramos la aplicación de chat apshet. Ahora veamos cómo se
vería el proceso desde la perspectiva de
Ann. En la primera página, podemos ver que apsheet da
la bienvenida al usuario y lo
invita a
enviar una descripción de una app o
problema de negocio que desea resolver Por ejemplo,
describiendo un flujo de trabajo. Un hace esto
describiendo brevemente lo que
necesita algo para simplificar el proceso de los gerentes reciben y aprueban solicitudes de
viaje Ella se suma a la descripción al señalar los tipos
de datos que
también necesitará realizar un seguimiento
después de ingresar al prompt, Ushid responde con un esquema
general de la aplicación Desde el primer mensaje de Ann, Upshd ha reconocido que la aplicación debe tener
un flujo de aprobación y le pide que elija cómo se deben enviar las notificaciones para la
solicitud de aprobación Como podemos ver,
hay diferentes opciones disponibles aquí selecciona
solo correo electrónico por ahora. A continuación, apshet sugiere
algunas pantallas que tal vez quiera incluir, un formulario para que los usuarios
envíen nuevas solicitudes, una lista de resumen de viajes, próximos viajes y
algunas otras vistas Estas pantallas son básicamente la columna vertebral del esquema de aplicaciones de
Anne. Describe de qué se trata su
aplicación. Ella no quiere una pantalla de M
Travel en su aplicación, así que la deselecciona para
eliminarla de la aplicación
y luego hace clic en App Ahora que Apsheet
sabe qué
armar para la aplicación de solicitud de Ann's
Travel, confirma las tablas que
podrían crearse en la base de datos de
Apsheet Estos conjuntos de datos se
crean en función las pantallas o vistas de aplicaciones
que acaba de seleccionar. Upsheet crea dos tablas para soportar Schema, viajes y equipo Aún no hemos ingresado ningún
dato en nuestra app, así que todas estas tablas
estarán vacías. Si no tenemos ningún
dato en la app, entonces ¿cómo podemos probar para
ver si todo funciona? Pensó molesto en eso también. Después de crear las tablas, Upseet ofrece la opción incluir datos de muestra en la aplicación Anne está lista para probar la
aplicación, así que elige que sí. Y finalmente, apseet le pide a
Anne que elija un
nombre para su aplicación A llama a este símbolo
viaje, y eso es todo. Apshets next response
es un enlace a una vista previa completamente funcional de la aplicación que
se acaba Tomemos un descanso y echemos un vistazo atrás a lo que
hemos hecho hasta ahora. A través de solo unos pocos intercambios de preguntas
y respuestas, apseet pudo
tomar la solicitud de Ann, que estaba escrita en lenguaje
natural, y recomendé
varias soluciones, incluidas las pantallas que los usuarios de
su aplicación necesitarán ver Las cosas que tendrán que hacer y el lugar para que se almacenen
los datos. Incluso se configura la
notificación por correo electrónico a los usuarios. Crear una app a través del lenguaje
natural
sin codificación es una magia que
ahora es una realidad en app sheeet Permite a muchos
usuarios nuevos desarrollar aplicaciones de manera rápida
y eficiente. Al seguir adelante, a Anne se le presenta la
opción de obtener una vista previa la aplicación que se le
ha creado o sumergirse en el
editor de Ashoot para su personalización Ella elige echar un
vistazo rápido primero a la vista previa. Mientras navega por el emulador de
aplicaciones en su escritorio, explora las vistas
que generó el ábside, comenzando desde nuevos viajes, a viajar por usuario, y finalmente los próximos viajes Esta última vista muestra
tanto un mapa como una lista de viajes
futuros, todos llenos los datos de muestra que
decidió incluir anteriormente. Todo parece
estar en orden hasta el momento. Pero Ann se da cuenta de que falta
una vista
que tenía en mente en la aplicación. Ella tiene en mente una
adición particular, una pantalla que compila todas las solicitudes de viaje en
un panel integral, proporcionando al equipo de finanzas
una respuesta a una pregunta
que hacen con frecuencia ¿Cuál es el costo total del viaje de
cada empleado? En el editor, y se da cuenta la función de IA generativa que utilizó antes, también está
disponible aquí. Ella escribe en su solicitud
de un nuevo tablero, y en ningún momento Abscht
toma su solicitud, disecciona y sugiere
los componentes necesarios
para esta los componentes necesarios
para Propone una nueva
columna calculada para su tabla de equipo y da una vista previa del gráfico que representará
los datos agregados, tal como lo hizo
antes y quiere escudriñar cada parte de
los cambios sugeridos Entonces ella echa un vistazo al
gráfico de vista previa. Y se ve bien. Después inspecciona la nueva columna
en la base de datos para asegurarse de que
todo esté bien ahí Utiliza el enlace
proporcionado para ver el cambio propuesto en la tabla de aprobación en la base de datos
de asheet. Con un rápido vistazo a los
números y confirma que la nueva vista y los
cambios de datos se alinean con
sus expectativas. Ella aprueba los cambios en el editor de apsheet,
y eso es todo. Su app ya está en vivo y lista para usar y siente que
tiene lo que necesita. Su confianza en las tablas y columnas que apseet le ha
creado es alta Como está contenta con la
funcionalidad de su aplicación, se
deshace de los datos de muestra, despliega la aplicación y la
comparte con su equipo Ahora su equipo puede ver
esta versión refinada de la aplicación y comenzar a enviar
sus solicitudes de viaje. Avance rápido unas semanas
mientras Anne está pasando por intranet de
su compañía para una forma específica, una
idea le llama Anne vuelve al editor. Sabiendo la frecuencia con la
que su
equipo usa Google Chat, considera la función de aplicación de chat
sin código de Apsheets Esto permitiría a
su equipo buscar el formulario requerido simplemente
platicando con viajes de símbolos Anne vuelve a la
editora y habilita viajes de
símbolos como una aplicación de chat para los espacios internos de sus dominios. Este paso hace factible que
los colegas de Anne agreguen viajes de símbolos a
sus espacios de chat de Google, chats
grupales o incluso en conversaciones
privadas. Ahora es el momento de
repasar los ajustes. Por defecto, símbolo
Travel chat app
mostraría una lista de todas las vistas de
aplicaciones accesibles a los usuarios. Pero Anne está construyendo esta
versión de chat específicamente
para usuarios finales. Los empleados que
principalmente quieren usar la aplicación para
enviar solicitudes de viaje. Ella elige solo las vistas de
aplicaciones necesarias para sus usuarios, lo que significa que tiene que eliminar todo excepto los formularios de solicitud. A continuación, y agrega un
mensaje de bienvenida para sus usuarios, proporcionando algún contexto sobre cómo interactuar
con el chat up. Ella decide incluir
un comando slash. Al agregar este comando, cada vez que un usuario escribe slash NETRIP, la aplicación de chat abre rápidamente el formulario de solicitud de
viaje Aphit también proporciona un comando de búsqueda
inteligente. Este comando permitiría a
sus compañeros de equipo usar la canalización de
procesamiento del lenguaje natural de
Aphts para buscar datos o vistas en su aplicación Pero decide mantener las cosas simples y desactiva el comando de búsqueda
inteligente Su última tarea consiste en
configurar una automatización para
notificar a los usuarios cada vez que cambia su estado de aprobación de
viaje. En esta página, se puede crear el flujo correcto trabajando con
una interfaz gráfica. De esta manera, puede construir las bases para la automatización
necesaria Una vez hecho esto, ella
nombra su automatización, ajusta algunos detalles
sobre cuándo
debería ejecutarse y cómo se deben enhebrar las respuestas y regresa al creador de aplicaciones de chat
para concluir las cosas Gracias a Apshts no hay implementación de la aplicación de
chat de código, y no necesita lidiar con
ninguna configuración adicional para que su aplicación o su
automatización funcione en el Upshet se encarga de toda la configuración de la
plataforma Google Cloud detrás de escena, todo
con un solo clic Ahora y está lista
para compartir su
aplicación de chat con el equipo.
Y ahí va. La aplicación de chat ya está
en vivo y está lista para ser instalada y utilizada por toda
su organización. Ahora digamos Jeffrey Clark, un miembro del equipo de Ann
decide usar la aplicación Jeffrey necesita aprobación para sus planes de viaje para visitar
las instalaciones del cliente Ya ha instalado
el símbolo Travel chat app, por lo que escribe el slash
New Trip Command para que aparezca el formulario de solicitud de
viaje Jeffrey ingresa todos los detalles
necesarios sobre su próximo viaje en
el formulario y pulsa enviar Desde el final de Anne, puede ver que la solicitud de
Jeffrey
aparece casi instantáneamente La nueva
solicitud de aprobación activa una notificación por correo electrónico al gerente de
Marcus Jeffrey Marcus recibe un correo electrónico detallando la solicitud de
viaje de Jeffrey Después de examinar los
detalles de la presentación, Marcus sigue adelante y aprueba el formulario directamente
desde su Gmail. En cuestión de segundos, Jeffrey se da cuenta de una
notificación de chat de viaje con símbolos Cuál es el mensaje es confirmación de
aprobación de viaje. Felicidades Jeffrey
y viajes seguros. Así que al terminar, fuimos testigos del poder de la función de IA
generativa de App Sheets Ayudó a Ann a crear y personalizar una solución
para administrar solicitudes de viaje de
su equipo utilizando
lenguaje natural y sin código. Un desafío empresarial resuelto
de manera eficiente, creando una aplicación de
solicitud de viaje ajustada a las necesidades de su equipo. La perfecta integración con Google Chat y el buen
funcionamiento como se muestra en solicitud de viaje de
Jeffrey y pronta
aprobación de
Marcus subrayan la accesibilidad
y eficiencia de la plataforma Este es el poder de
no desarrollar código. APSHETSGenerative AI está revolucionando la
ausencia de desarrollo de código,
haciéndola accesible, eficiente haciéndola