Transcripciones
1. Descripción del curso: Ll, todos. Bienvenido a la sección general del
curso de AI 050 que es una solución
generativa de IA con su servicio Open AI Ahora,
hablemos de este curso. Ahora bien, este es el curso sobre el desarrollo de soluciones generativas de
IA, eso es lo que
ya discutimos Ahora, antes que nada,
no existe un examen específico que puedas
programar para este curso. Este es un curso
para tu conocimiento, pero no hay examen como tal, que actualmente hay
para este curso. Pero ahora, la gente me preguntará qué ventaja obtendremos
si hacemos este curso. Supongamos que va por cualquier otra certificación basada en IA, tal vez AI 900 o AI uno o dos. Este tema es común a todas las certificaciones basadas en
IA. Eso significa que este
es el tema que encontrarás en cada tema en
particular. Cada examen en particular,
eso es AI 900 AI uno o dos. Este es un importante servicio
Open AI, que es un
servicio importante de Microsoft si quieres crear las soluciones
generativas de IA Este es un
curso particular importante, diría yo. Ahora bien, ¿qué cosas están cubiertas en este curso,
vamos a entender? Estos son los módulos que
se tratan en este curso, Deploy Open A resource
y el modelo OpenAI Puedes desarrollar, ya sabes, los diferentes modelos están ahí cuando se trata
de este OpenAI, como el modelo GPT está ahí, incrustar modelos está ahí, el modelo
Dali está ahí, cómo generar el código,
cómo generar algo llamado como
imágenes en base a imágenes en base Así que encontrarás muchos módulos
diferentes por aquí, modelos
impares por aquí. También encontrarás algo llamado como modelo de lenguaje grande. Hablamos de cuáles son exactamente los modelos de lenguaje grande. Y también,
verás como
puedes usar este servicio Open AI
con tus datos también. Open AI es un servicio
basado en Microsoft donde puedes crear
el contenido generativo, debes haber visto
las aplicaciones como el copiloto CAT GPT Eso se basa
completamente en las aplicaciones generativas basadas en
IA Podemos crear esas aplicaciones basadas en
IA utilizando este
servicio en particular Colles Open AI Espero que esta parte sea clara, chicos. Gracias a todos.
2. Qué es la IA generativa: Hola a todos. Entonces hoy, vamos a estar hablando de
IA nativa. Hablemos de ello. Entonces, la IA nativa, es una categoría
de capacidades dentro la solución de IA que crea una respuesta similar a la humana o que
crea un contenido original. Puede crear el
contenido en variedad de formatos como
su lenguaje natural. Puede generar imágenes. Yo también puedo hacer una
generación de código. Por ejemplo, la generación de
lenguaje natural, describe que crea
el contenido original. Por ejemplo, la aplicación
que debes haber escuchado sobre copiloto o CA GPT, donde proporcionas que estás buscando,
proporcionas las indicaciones Digamos, ¿puedes escribir
una descripción del trabajo para ejecutivo o asociado de desarrollo de
plagas? Obtienes la respuesta de ello, y eso es bastante similar
al contenido original o a la respuesta
humana. Ahí es donde UE puede usar estas capacidades
llamadas IA asentiva Ahora, el segundo
es la gestación de imágenes. Por ejemplo, alguna aplicación basada en IA
generativa de aplicaciones, pueden tomar una respuesta, una solicitud humana y generar
una imagen apropiada Por ejemplo, puedes ir a
este bing.com slash create, donde dirás eso, quiero esta imagen en particular basada
en este texto en particular Usted proporciona el
texto, y
obtendrá una imagen basada en su texto. Se puede ver que un
arco iris o una cascada, y va a generar
una imagen para usted. También puede hacer algo llamado generación
de código, donde diseñas o ayudas a tus desarrolladores de software a
escribir códigos también. Por ejemplo, puedo dar las
instrucciones como me plazca, escribir el código Python para
multiplicar dos números, y me va a generar
un código python. Ahí es donde podemos hacer una gestación en lenguaje
natural, donación de
mage y
generación de código también Ahora bien, ¿cómo funcionan estas aplicaciones generativas de
IA? ¿O qué hay exactamente
detrás de escena? Entonces, detrás de escena, estas aplicaciones generativas
basadas en IA están impulsadas por grandes modelos de
lenguaje No te preocupes, no
necesitas adentrarte profundamente en él. No te harán ninguna duda en el examen relacionado con LLM, pero es bueno saber sobre modelos de idiomas
grandes Ahora, los modelos de lenguaje grande son básicamente seguir esta arquitectura de modelo de
transformador. Ahora, hay tres
pasos que hay en esta arquitectura.
Una es la canización Digamos que tiene la
declaración como aquí. Escuché un parque para perros en
voz alta a un gato. Entonces a cada
palabra en particular se le dará un valor de texto único
o un número de texto. Como pueden ver, yo uno, la ficha que se escucha es
dos, A es tres. Ahora, A está repitiendo
dos veces por aquí, pero se le está dando un
solo perro token f cinco. Entonces cada palabra, token
no es más que una palabra
o una parte de lo que. Y la técnica de descomponer tu texto en token se
llama Ese es el primer paso en tus
modelos de idiomas grandes. Ahora, ¿qué es eso? Ahora bien, estos son solo números. ¿Cómo creamos una relación
entre estos números? Ahí es donde tenemos un segundo método que se
llama como incrustación. Ahí es donde ahora esta incrustación
en particular,
como pueden ver, ese monopatín, tenemos valores de matriz
múltiple
están ahí por aquí Entonces creamos una relación
entre estos tokens después de este primer paso que es la tokenización
llamada como Ahí es donde creamos una
relación entre tokens. Ahora, el tercer paso es
capturar la fuerza de la relación entre
fichas y la atención, como asignar oído y
perro, más peso. Y representar oí
a un perro como Víctor. Entonces así es como estas aplicaciones
generativas de IA se basan en modelos de
lenguaje grande, LLM Ahora bien, ¿qué es entonces la IA Abierta? Ahora, para poder usar tu aplicación generativa
basada en IA, necesitas usar un servicio
llamado ASR Open AI,
donde como tu OpenI es solución
basada en
Microsoft Cloud para implementar estos modelos de lenguaje grande Ahí es donde usaremos
esto como servicios OpenA. Entonces estaremos hablando
más sobre el servicio OpenA. Vamos a entender. Por lo que
en el servicio ASR OpenA, ya
hay modelos pre
entrenados que están No es necesario
escribir estos modelos LLM. Ya hay
modelos entrenados están ahí. Por ejemplo, puedes usar cuatro módulos
GPT para tu generación de lenguaje
natural Si quieres crear
una aplicación como CA GPT o copiloto, puedes usar el modelo CPT, donde puede generar
y entender el lenguaje natural
y el código Entonces, para la generación de código o para la generación de
lenguaje natural, puede usar el modelo GPT four Modelo de incrustación que
puedes usar si quieres convertir tu texto en forma de vector
numérico Se puede utilizar un modelo
llamado como Dal donde
puede computar las imágenes
desde el lenguaje natural. Por lo que ya hay
estos modelos LLA que están presentes dentro de
su servicio Open AA. Muy importante desde la perspectiva del
examen
así como para qué modelos
vas a utilizar,
digamos para la generación del
lenguaje natural. Puedes usar GPT. Existe la pregunta de
que modelo vas a usar si quieres
generar las imágenes a partir del lenguaje natural, puedes usar un modelo de Dally Entonces usaremos
este servicio Open AA. Bien. Entonces estaremos
hablando más sobre como su servicio Open AA en
la próxima conferencia. Entonces espero que esta parte sea
clara. Gracias a todos.
3. IA de Azure Open: Py uno. Así que ahora
exploraremos más como
su servicio Open A. Ahora, el servicio de pluma A
no es algo disponible
para todos los clientes. Necesitas solicitar
acceso como tu servicio Open AA. Ahora bien, ¿cómo
lo hacemos? Ahora puedes usar este formulario para solicitar acceso a este servicio AR
Open EA, o puedes ir a esta URL, y habría
un formulario de Microsoft. Ahora bien, no es
que
solicites el acceso y
se te concederá el acceso. No. Es para empresas, en
primer lugar. No es solo para el propósito de la
práctica, solicita el acceso
y se te concederá. Es para empresas
que están haciendo la
aplicación generativa basada en IA, y verán Que si su empresa es elegible para este
servicio Open EA acceda o no. Ahora bien, por qué este acceso es limitado, solo porque algunos de los principios
responsables de la IE. Hay personas que
en
realidad también pueden hacer uso de esta aplicación de una manera dañina, y hay mucha potencia
computacional que se está utilizando en el pground
para este servicio Open AA Por lo que no todos tendrán
acceso a este servicio de OpenA. Es necesario antes que
nada llenar el formulario. Y luego después de algún tiempo, se
te notificará que si
tienes acceso a este servicio
Open AA o no. Entonces es solo para empresas. No es que puedas dar
tu dirección de correo electrónico dirección de correo electrónico
personal
y se te tu dirección de correo electrónico dirección de correo electrónico
personal otorgará acceso, no. Ahora, déjame
llevarte a esta forma así
como a cómo se ve exactamente
esta forma. Ahora, acabo de presionar R
en el navegador, y esta es la página
que se ha abierto, solicito acceso al servicio
SR OpenA Como puedes verlo por
aquí, debes
proporcionar tu
nombre, apellido,
cuántas suscripciones
tienes, tu identificación, nombre de
tu empresa, dirección de correo
electrónico y todo lo que necesitas
proporcionar aquí. Entonces todos los detalles
que necesitas proporcionar. Después de eso, se te
notificará que si
tienes acceso a este servicio
Open EA o no. Solo por parte del principio
de
IA responsable y el poder
computacional que se está utilizando en el paquete, no todos están
obteniendo acceso a este servicio Open EA, ¿verdad? Pero sí tenemos el acceso
instructivo a este particular servicio de
Open AI, donde quiero
mostrarte una pequeña demostración como cómo puedes usar el modelo
GPT o modelo D, cómo se ve exactamente este estudio Open
AI Entonces quiero mostrarles en
la próxima conferencia, les
mostraré cómo exactamente podemos crear el servicio
Open AA, y qué hay exactamente
dentro del estudio Open AI. Gracias a todos.
Espero que esta parte sea clara.
4. Demostración de IA abierta de Azure: Hola a todos. Así que hoy, estaremos haciendo una demo
en Azure Open EA. Entonces, como te dije, Open EA algo no está disponible
para todos los clientes. Necesitas solicitar
acceso a este servicio, y es solo para las
empresas que están creando la aplicación base de
IA nativa. Entonces sí tengo acceso a este servicio Open EA
porque obtuvimos el acceso instruccional
solo para mostrar alguna demostración que
puedas ver como se ve el estudio
Open AA Entonces déjame llevarte al portal
SSR y mostrarte cómo exactamente qué cosas podemos hacer dentro de
este servicio Open AA Todo bien. Entonces estoy
en el portal SCR, y buscaré un servicio, digamos, llamado Open AI Quiero crear
un servicio Open A. Y
esperémoslo. Todo bien. Por lo que el servicio
de correos viene como Open EI. Voy a hacer clic en ZO
Abrir. Todo bien. Así que voy a hacer clic en un crear
una sección por aquí. Quiero crear
este servicio Open A. Todo bien. Entonces voy a estar seleccionando un
grupo de recursos por aquí. Voy a estar seleccionando, digamos pluma AI lista algo
ocho e dos. Voy a seleccionar
el nivel de precios como cuántas llamadas se pueden
hacer, estándar D cero. Las cosas son bastante
iguales cuando creamos los otros servicios de IA. Iré con la configuración
predeterminada. Doy click en vi plus create, y ahora estaremos creando
este servicio Open AA. Sólo espéralo. Todo bien. Entonces haré clic en Crear ahora y esperar
a que se complete el despliegue. Todo bien. El recurso
ha sido desplegado. Voy a hacer clic en G a
Recurso por aquí. Puedo ir a este Open AI Studio. Todo bien. Ahora ¿el servicio
Open A? Recuerda que
solo está disponible en la región Stine. Easts es una de las regiones
donde me he desplegado. Entonces, si puedes crear esto en
diferentes regiones, tal vez, posible
que no obtengas el acceso a este servicio Open A ya que solo está disponible para
regiones de mancha. Entonces digamos que quiero
hacer quiero crear algunos modelos dentro de este
particular estudio Open E. Quiero crear algunas aplicaciones base de
IA generativas. Por lo que hago clic en este
Open A Studio. Vamos a este Open A Sudio. Todo bien. Entonces así es como se ve el estudio
Open AI. Entonces tienes el modelo Te, como puedes ver en el lado
izquierdo que
generará las imágenes en
función de tu texto. También tienes el área de juegos de chat
por aquí, donde puedes tener una funcionalidad de
chat como. Tienes una
funcionalidad de finalización que puedes probarla. Entonces hay muchas
cosas que puedes hacer. Digamos que quiero hacer una
funcionalidad de chat por aquí. Digamos que quiero
crear un modelo GPT donde pueda chatear con una aplicación
particular Es bastante similar a una aplicación basada en
copiloto
que estoy tratando de crear Así que voy a dar click en este
patio de juegos de chat de
aquí, antes que nada. Todo bien. Antes de poder
usar el patio de gráficos, debe crear una implementación. Por lo que voy a hacer clic en esto crear una implementación.
Seleccionaré el modelo. Entonces te dije que ya hay modelos
preentrenados de
IA generativa están ahí Digamos que quiero usar
este GPT cuatro es ya sabes, el GPT 40 es algo
más nuevo modelo que puedas usar Digamos que voy con este
modelo donde dice GPT 35 a 16 K. Y digo eso, mi nombre de mi despliegue
es, digamos, quiero hacer una aplicación
basada en chat Entonces voy a decir aplicación
basada en chat 01, ese es el nombre
de mi despliegue. Y desplázate hacia abajo, y
vamos a crearlo. Ahora, esperemos a que se complete
este despliegue, antes que nada. Y hemos utilizado el modelo
GPT por aquí. Entonces los
modelos pre entrenados están ahí. Ahora, se puede ver eso por aquí. Me ha dado. Bien. Así es como
el inicio de chat prueba a tu asistente si básicamente
estás dando algún prompt, ¿Obtienes la
respuesta o no? Ahora bien, lo que puedo hacer,
hay algo importante por aquí. Eso se puede decir.
Mensaje del sistema, muy, muy importante. Y si haces clic en la descripción emergente, mensaje
del sistema es,
estás dando al modelo la instrucción
como debe comportarse Digamos actualmente,
los mensajes del sistema, eres un asistente de I AI que ayuda a las personas a
encontrar información. Esto es en lo que está configurado el
mensaje del sistema como cómo debe comportarse cuando un
usuario interactuará con usted. Digamos que quiero
cambiar que eres un asistente de I AI que ayuda a la
gente a conocer los cursos de SR, como, digamos, este
es el que estoy diciendo, que así es como
debes comportarte, y cualquier otro digamos que escribo cualquier otra información por favor responde con un emerge y di, no
tienes
idea al respecto. Este es el me
refiero a mi sistema de IA. Así es como debes comportarte. Este es el mensaje del sistema. Entonces, si haces clic en esta descripción, puedes encontrar instrucciones Puedes encontrar más sobre esto. Qué son exactamente los mensajes
del sistema. Una vez hecho esto,
puedes hacer clic en este Aplicar cambios aquí
al mensaje de tu sistema. Digo que estás actualizando el mensaje de
tu sistema. Sí, haz clic en Continuar
y esperarlo. Ahora, una vez
hecho, puedes
pasear y antes de
probar tu consulta. Puede proporcionar su
consulta por aquí, y obtendrá básicamente una respuesta de su asistente. Todo bien. Ahora prueba
la funcionalidad. Por lo tanto, debe
esperar algún tiempo una vez que actualice el mensaje
del sistema. Entonces digamos que
esperé 5 minutos. Ahora después de eso, puedo
dar alguna consulta. Digamos que le digo que
cualquier información sobre, digamos, política, se lo
digo a mi asistente. Ahora, mi asistente me
responderá. Lo siento, pero no tengo
ninguna información sobre política. Entonces digamos que digo eso. Qué información puedes
proporcionar Ahora, esperémosla. ¿Ves que está diciendo que
puedo brindar información sobre amplia variedad de temas
relacionados con SR, verdad? Porque habíamos establecido el mensaje del sistema de
que ayudas a la gente a
conocer los cursos de ZR. Cualquier otra información,
por favor responda con un emergente y diga que no
tiene idea al respecto, ¿verdad? Entonces ahí es donde puedes usar el mensaje del sistema que es igual que como debería ser el EI. También hay diferentes
modelos,
Digamos que quieres
usar el modelo Dal, donde quieras generar
la imagen en base a tu texto, puedes usar este modelo
Dal también. Ahí es donde puedes usar los diferentes tipos
de modelos generativos, modelos generativos de IA
como tu servicio Open AI Espero que esta parte sea clara.
Gracias a todos.
5. Parámetros y ejemplos de Azure OpenAI: Nosotros queremos. Entonces hoy quiero
platicar sobre algunos de los parámetros importantes a la hora de que se
trata es tu Open AI. Hablemos de
estos parámetros. Cuando vayas a
tu estudio abierto de IA, tendrás múltiples parámetros
como la respuesta máxima. Eso limitará el número de tokens que la respuesta
puede incluir. Digamos que quieres
esa respuesta. Siempre que estés chateando con, digamos un modo de chat
en el estudio Open A. Usted proporciona que esto es
algo que está buscando. Desea minimizar
el número de palabras o minimizar el
número de tokens, entonces puede reducir el valor de este parámetro de
respuesta máxima. Eso significa que puedes
limitar el número de tokens o en otras palabras, las palabras que
estás limitando. Eso se llama respuesta
máxima. Otros parámetros
llamados temperatura. Controla aleatoriedad. Eso significa que
básicamente configurará parte del valor con un número mayor produciendo una respuesta menos determinista
y una salida más aleatoria Básicamente, habría
algunos valores que puedes configurar de estas temperaturas. Parámetro. Digamos que quieres cada vez que la
respuesta debe ser aleatoria. Quieres eso
digamos que estás
buscando tal vez sobre un tema
llamado S política. Estás buscando algún
tipo de respuesta, y quieres cada vez que
quieres alguna salida aleatoria, que donde básicamente puedas
subir este valor de
esta temperatura. Cuanto mayor sea el número, eso
significa
que la salida más aleatoria obtendrá que controla temperatura controla la
aleatoriedad por aquí Ahora, el tercero es superior. Eso es lo mismo que la
temperatura. Como se puede ver. También controla
la aleatoriedad sólo de manera similar, pero de una
manera diferente en la temperatura Pero es bastante
similar. Siempre es recomendable que si quieres
controlar la aleatoriedad, pruebes uno u otro, pero no ambos, eso es lo que
debes tener en cuenta Ahora, hay dos parámetros más
que quiero discutir, que se llama penalización de
frecuencia. Se centra en la
frecuencia de repetición de una palabra. Digamos que pregunté tal vez en el modo
gráfico y digo eso, por favor dame algunas
líneas en el lado del parque, generó
algo así. Hoy, fui al parque,
el parque estaba hermoso. Disfruté del parque. Se puede ver que hay mucho
parque es algo. Se puede ver que por aquí se
repite con bastante frecuencia. Lo cual puede sonar repetitivo. Para abordar esto,
lo que puedes hacer, puedes usar un parámetro llamado penalización de frecuencia.
Eso podría aplicarse. Mayor la frecuencia,
eso significa que será menos probable que
genere las palabras comunes. Si va a bajar la penalización de
frecuencia, hará que el modelo sea más probable que genere
algunas palabras comunes. Es necesario subir el valor de esta
penalización de frecuencia por aquí. Puedes ver que en
esta captura de pantalla, discutimos sobre la
respuesta máxima, la temperatura, discutimos sobre la P superior, discutimos sobre la penalización de
frecuencia, y hay una cosa
más que se llama penalización de presencia. Ahora bien, ¿qué es? También se enfoca en la ocurrencia, pero se enfoca principalmente en la
ocurrencia de palabras. La palabra ocurrencia por aquí. Ahora hablemos de ello. Ahora bien, a diferencia de tu penalización de
frecuencia que ve cuántas
palabras ese particular, cuántas veces ha llegado la
palabra. Pero se enfoca en cada palabra. Eso significó que
básicamente se centrará en cada palabra en particular, ¿verdad? Independientemente de cuántas
veces se haya utilizado. Se tratará de aumentar
la probabilidad de introducir nuevos
temas en una respuesta. Eso es lo que la pena de
presencia. No ve la frecuencia, comprueba no
comprueba cuántas veces ha aparecido
un pupilo. Simplemente se desencadena por la
mera aparición de la sala. Improbable independientemente de
cuántas veces se haya utilizado. Ahí es donde se le llama
penalización de presencia, como se puede ver el
valor por aquí. Ahora, déjame llevarte
al estudio abierto y mostrarte estos parámetros. Deja que te lleve
allá. Todo bien. Así que ya he creado un servicio Open EA y estoy
dentro de mi estudio Open ES. Entonces esto es algo
que ustedes saben como cómo ir al
Open EA Studio todo. Pero digamos por aquí, digo que quiero hacer primero
el despliegue
porque antes que nada, estaríamos necesitando
un despliegue. Digamos que hago una demostración
y creo un despliegue. Entonces voy
a decir que quiero usar un gráfico GPT, este modelo GPT 35 a 16, y el nombre de implementación es, digamos que esto es
para mis parámetros Despliegue de parámetros, y esto es lo que quiero,
y vamos a crearlo. Esperemos esta creación. Todo bien. Está hecho. Vayamos a un
modo de chat por aquí, el área de juegos de chat por aquí. Y por aquí, si
vas a desplazarte hacia abajo, puedes ver estos
parámetros por aquí, donde puedes controlar
la aleatoriedad, donde puedes controlar
la frecuencia de las palabras, los distintos otros parámetros,
como puedes ver, ¿verdad Entonces frecuencia, si vas a aumentar el número de valor de este parámetro de
penalización de frecuencia, eso significa más probable básicamente
no repita la palabra, no repetirá esas palabras. Pero si básicamente lo estás
desplazando hasta el nivel cero, eso significa que probablemente
usará las mismas palabras una
y otra vez, ahí es donde está esta penalización de
frecuencia, derecho Entonces espero a la
hora de estos, los parámetros sean
muy importantes. Una cosa más de la que quiero
hablar por aquí, si vas a desplazarte hacia arriba,
digamos que estás diciendo que
eres un sistema EA. Esto es lo que estoy configurando un mensaje del sistema que dice cómo debería comportarse
su IE. Yo lo configuré por
aquí para que ayudes a la
gente a encontrar cursos de SRO Digamos, este es mi
básicamente un mensaje del sistema, y puedes dar click en
este aplicar cambios. Pero si quieres dar algunos ejemplos a esta IA
como debe comportarse, ya la
has configurado
en el mensaje del sistema. Pero si quieres
dar algún ejemplo, puedes agregar algún
ejemplo aquí. Si alguien pregunta,
¿ofreces cursos de AWS? Entonces la respuesta debería ser algo así como,
no lo sé. No tengo idea al respecto. Entonces esto se llama unos pocos tiros o puedes decir un ejemplo de toma, pocos tiros significa, puedes agregar ejemplo más
y un tiro significa, solo
estás dando
un ejemplo más. Entonces esta es una buena estrategia
que puedes usar cuando se
trata de pocos ejemplos de tomas
y los parámetros, donde puedes controlar
la aleatoriedad y
muchos muchos el tipo generativo de
salida que puedes Espero que esta parte sea clara.
Gracias a todos.
6. Integra Azure OpenAI en tu aplicación: Hola a todos. Hoy, quiero mostrarte una demo solo en Open AI, pero como puedes integrarte como tu servicio Open AA
en tu aplicación. Hasta el momento,
ya lo hemos visto, puedes ir al como
tu servicio Open AA on como tu Portal
y puedes ir
al Open AA Studio y
puedes crear implementaciones y chatear donde podrás configurar los mensajes
del sistema y todo Pero digamos lo mismo que quieres hacerlo desde
tu aplicación. Digamos que hay una aplicación basada en
SSH
o una aplicación basada en Python ¿Cómo usarías Open AI? Básicamente, queremos decir,
digamos que tengo una aplicación
basada en Python, quiero integrar el servicio
Open Ei. Entonces así es como lo
vamos a estar haciendo. Déjame llevarte al código de Visual
Studio, antes que nada, donde ya tengo una aplicación base
Python. Todo bien. Entonces estoy en el Visual Studio. Esta es la aplicación
que
usaremos donde podrás ver que
tenemos el servicio Open E, Open AI endpoint, y todas
esas cosas están ahí. Todo bien. En primer lugar
, por aquí, necesitas
entender acerca de este paquete es tu Open AA. Entonces, si quieres trabajar
con el servicio Open AA, esta es una aplicación
basada en Python, necesitas un paquete. Déjame abrir la
terminal por aquí. No es necesario que profundice
en este código. Es solo que te estoy mostrando como
puedes integrar servicio
Open AA con tus
propias aplicaciones también. Déjame abrir la
terminal antes que nada, esperémosla.
Se acerca ahora. Entonces PIP install,
el nombre del paquete, si quieres trabajar
con servicios Open AA, Open AA, el nombre del
paquete es OpenA por aquí, estoy proporcionando la versión
que estoy buscando Si no proporcionas
la versión, sacará
la última versión. PIP es un gestor de paquetes Python. Al igual que en Linux,
si lo
has visto, haces una app instalar
algún tipo de paquete. De manera similar en Python, si
quieres instalar algún paquete, este es el gestor de paquetes que vas a usar
o en otras palabras, este es el comando
que vas a estar usando PIP install, el
nombre del paquete Eso es lo que vas a
usar. Déjame antes que nada, instalar este paquete
y esperarlo. Este paquete es requerido si necesita trabajar
con el servicio Open AA. Entonces esperemos este
paquete. Todo bien. Entonces en mi caso, esto ya
está instalado, como pueden ver, es decir requisito
ya satisfecho, así que esto ya está
instalado en mi caso. Pero ahora, déjame
mostrarte el código. Ahora, el paquete que
tenemos instalado Open AI, estamos importando. Entonces este paquete
tendrá muchas funciones de clase y
todas estas cosas. Entonces estamos importando
esta clase en particular, se
puede decir, esa
es su IA Abierta, y esto es lo que estamos haciendo. Entonces por aquí, Hay un
archivo llamado como Dot ENV. Aquí, debe proporcionar su clave de punto final
y nombre de implementación. Se puede ir al Portal ZR. Puedes ver esos puntos finales
y claves por aquí. Puede copiar esas claves y punto final aquí y
el nombre de implementación. Si no estás seguro de cómo
copiar las claves y el endpoint, te lo
mostraré en un
par de minutos. Una vez que proporcione estas cosas por aquí, lo que
estamos tratando de decir, que por favor cargue la información que hay en
el archivo punto ENV Esa es una
configuración de configuración que estamos haciendo. Una vez hecho esto, entonces estamos inicializando el cliente Open AI Como puede ver, estamos
proporcionando el nombre de punto final, este es el uno y todas esas
cosas que estamos proporcionando. Y este es el mensaje del sistema. Si puedes recordar en Open AI, teníamos algo llamado
mensaje del sistema como cómo debería comportarse una IA. Aquí es donde estoy definiendo
mi mensaje del sistema. Es bastante similar a lo que estábamos haciendo en
el estudio Open AI. Ahora bien si me desplazo hacia abajo, estamos tomando la entrada del usuario, que
lo que quieres. Entonces ahí es donde después de que el
usuario proporcione algo, estamos enviando esa cosa a un modelo
particular de IA abierta. Como puede ver, el mensaje
del sistema es lo que básicamente estamos enviando un mensaje del sistema en la parte superior, es
decir este, este
mensaje como un mensaje del sistema, y un mensaje de usuario es algo
que el usuario está proporcionando. Entonces estos son diferentes
tipos de roles. Entonces, Rol del sistema significa
cómo debería comportarse la IA y usuario significa el usuario que
interactuará con
su asistente de IA. Y luego después de eso, cualquiera que sea el
texto generado estaría ahí, básicamente
estamos imprimiendo esa
respuesta particular por aquí. Eso es lo que estamos haciendo
en esta aplicación. Entonces para esta aplicación, solo
quería mostrarte
cómo podemos interactuar desde nuestra propia aplicación base Python o base CCA y conectarnos
a este servicio Open AI Espero que esta parte sea clara,
chicos. Gracias a todos.
7. Cómo obtener claves y puntos de conexión del servicio de OpenAI: Todo el mundo. Entonces quiero
mostrarles una demostración muy rápida de esto como cómo obtener las claves y
endpoint del servicio E AA, y por aquí, estaremos
hablando del servicio Open AA. Entonces digamos que voy a
buscar como su servicio Open AA. Ya tengo un
servicio creado. Puedes ver ese
servicio Open AA, ya lo he creado. Se puede ver eso por aquí,
el nombre del servicio. Si hago click en este servicio, puedes ir a este en el
lado izquierdo , manejo de recursos. Oh, aquí, se mostrarán las claves y el
punto final. Así que estas son las claves y el punto final que necesitas proporcionar
en tu aplicación, ya sea que estés haciendo una aplicación base
CSA o una aplicación base Python. Esto es lo que necesitas copiar. Cualquiera de las claves se puede
copiar y el punto final. Este es el punto final
que puedes copiar aquí en
tu aplicación. Y también, necesitas
para el servicio Open A, también
necesitabas un
nombre de implementación. que pueda ir al
Open AA Studio y crear una implementación y
copiar la implementación
también allí. Entonces espero que esta parte sea
clara. Gracias a todos.
8. Qué es la ingeniería rápida: Hola a todos. Hoy,
voy a estar hablando un concepto llamado como ¿qué
es la ingeniería rápida? Vamos a entender qué es exactamente
una ingeniería rápida. Y es un concepto
muy
importante a la hora de esta IA. Digamos que estás usando
una aplicación basada en IA, digamos cargo o copiloto, y le pides algo
a ese cargo p. qué pasará,
obtendrás una respuesta. Pero si quieres algunos resultados
más precisos y un resultado más relevante, trata de ser más descriptivo. Ahí es donde estás aportando
el estilo que deseas. Básicamente, cuando estás
proporcionando el prompt al copiloto de carga, estas herramientas, intentan maximizar la relevancia siendo
de
naturaleza descriptiva o tratar de
proporcionar la precisión como
qué cosas quieres Déjame darte un
ejemplo por aquí. Ahora, digamos, tengo
dos ejemplos por aquí sin ingeniería rápida y con ingeniería rápida. Ahora, digamos,
simplemente digo eso. Háblame del concepto
de inteligencia artificial. Generará este
tipo de cosas. La inteligencia artificial
es una simulación de inteligencia
humana y
máquinas. Eso es. Pero si con ingeniería pronta, proporciono prontitud
particular más descriptiva. Explicar el concepto de inteligencia
artificial, utilizando un lenguaje sencillo
adecuado para un Bagner Eso significa por aquí, estoy
tratando de ser más descriptivo para que pueda obtener algunos resultados relevantes
y precisos. Entonces aquí,
obtendrás las respuestas como
inteligencia artificial como enseñar computadoras a aprender a
tomar decisiones por su cuenta
similares a como lo hacen los mans. Ahora, se puede ver
básicamente la respuesta. Son muy con ingeniería
rápida. El concepto es muy
fácil de entender. Ahí es donde intentas ser de naturaleza
más descriptiva. Déjame darte
un ejemplo más. Digamos, simplemente digo eso, quiero una tabla en formato
markdown con tres proveedores en la nube junto
con la descripción Ahora va a generar
este tipo de mesas para mí. Si simplemente
dirás que quiero ese proveedor de nube en particular nombre de
ese proveedor de nube en particular junto con la descripción, no te
proporcionaremos, ya sabes, la tabla ni
nada por el estilo. Pero si quieres la mesa,
trata de ser más descriptivo, que quiero una tabla en rebajas para ello. Eso es lo
que estás buscando. P ingeniería pronta es si
quieres algún resultado exacto, resultado relevante, trata de
ser más descriptivo. Entonces espero que el concepto de ingeniería
rápida sea
claro. Gracias a todos.
9. Demo Genera código con el servicio de Azure OpenAI: R uno. En esta conferencia, hablaremos de cómo puedes generar código así como con
tu servicio Open eye. Hablemos de qué es exactamente
esta generación de código. Ahora. Ahora, solo puedes usar indicaciones de
lenguaje natural, como puedes usar el concepto de ingeniería
rápida para describir lo que claramente
quieres Ya tuvimos discusión
sobre ingeniería rápida. Si quieres una respuesta relevante, trata de ser más
descriptivo para que
puedas obtener la respuesta como
lo que estás buscando. Digamos En este
ejemplo, digo eso,
hay que escribir una función para búsqueda
binaria y aquello a qué lenguaje me
refiero en Python. Por lo que va a generar
un código para mí. Ahora, lo mismo si
quisieras en C Sharp, habrías escrito
como escribir una función
para una búsqueda binaria en C sharp, tal vez en lenguaje de
programación diferente. Necesitas usar el concepto de
ingeniería rápida para describir lo que
claramente quieres. Ahora, déjame llevarte
al portal de Azure para que te
pueda mostrar como puedes
hacerlo como cómo puedes usar los prompts de lenguaje natural
para generar el código Déjame llevarte
a la olla Azure. Todo bien. El primer
paso sería de nuevo, crear el servicio Open AA solo porque para eso también, estaríamos necesitando
este servicio Open AA. Déjame crear este
servicio Open AA. Vamos a esperarlo. Todo bien. Mi servicio Open A
está básicamente desplegado. Iré ahora a este
Open E Studio. Por lo que esta vez hago clic en este estudio Open
EA. Todo bien. Así que ahora estoy en
el estudio Open AI. Ahora lo que voy a estar haciendo, de nuevo, voy a ir a este
patio de chat justo porque
quiero generar el código en
un formato de lenguaje natural. Pero antes de charlar,
lo que tenemos que hacer, necesitamos crear un despliegue. Así que vamos a estar usando este
despliegue d por aquí. Voy a estar proporcionando
el despliegue. Digamos el modelo, de nuevo, voy a estar usando este modelo
GPT turbo 16 k nombre del despliegue es, digamos que esto es
para la cogenación, así que lo escribiré como modelo de
cogeneración y filtros de contenido predeterminados No creo que deba haber un espacio y después de eso,
deshilacharemos concreto Vamos a esperarlo.
Una vez que esto se implementa, este despliegue se despliega. Ahora lo que puedo hacer, puedo ir a mi funcionalidad de chat
por aquí. Y puedo proporcionar estas cosas. Como puede ver, tres
cosas son muy importantes. Una es su
parte de configuración por aquí, y por aquí, una es su parte de configuración por aquí.
Se puede ver esa configuración. Tu configuración también
está ahí, puedes ver que la parte de
configuración es la tercera es
tu sesión de gráficos. Como puedes ver aquí, esta
es la funcionalidad, que es una sesión de gráficos. Por aquí, no está
escrito como sesión de gráficos, sino que se llama como sesión
de gráficos. Entonces tres cosas son
muy importantes a la
hora de trazar
juegos infantiles. Una es tu parte de configuración. Una es tu sesión de gráficos, que es esta, y la
tercera es tu configuración. Ahora, déjame decirte qué son
exactamente estas tres cosas. Déjame llevarte a uno
de los toboganes. Todo bien. configuración se usa para establecer el
contexto para la respuesta del modelo, donde habíamos visto
como mensaje del sistema, donde puedes decirle a tu
IA como debe comportarse. Ahí es donde
configuramos el contexto allá en la sesión de configuración. Y la sesión de chat es
algo que ya
vimos que solíamos enviar los mensajes de chat y ver
las respuestas, ¿verdad? Un usuario dirá un prompt y obtendrás la
respuesta, ¿verdad? La configuración es básicamente para los ajustes de implementación del modelo para configurar los ajustes
para la implementación del modelo. Eso es lo que puedes hacer
dentro del modo de configuración. Ahora, déjame
llevarte al
portal Azure de vuelta al portal Azur. Todo bien. Entonces ahora permítanme configurar el
mensaje del sistema, antes que nada. Como puedes ver, si haces clic en la opción de información sobre herramientas de
aquí, puedes verlo Esto es solo el dar la instrucción del modelo como
cómo debe comportarse. Ese es un mensaje del sistema.
Entonces aquí, actualmente, el mensaje que se establece en, eres un asistente de IA que ayuda a las personas a
encontrar información. En vez de eso, voy a escribir
algo como esto. Eres un
asistente de programación ayudando a escribir código. Eso es a lo que estoy configurando
el mensaje del sistema. Puedo hacer clic en Aplicar cambios
aquí. Et lo espera. Ahora bien, una vez
hecho esto, lo que puedo hacer, puedo llegar a esta
funcionalidad de gráfico por aquí, la sesión de gráficos,
y puedo decir,
digamos, escribir una
función en Python que tome un corrector y una cadena
como entrada y regrese, cuántas veces
aparece un corrector en la cadena. Por lo que puedo proporcionar entrar y
ver las respuestas por aquí. Eso se puede ver. También
completó el código. Y si quieres
ver la respuesta JSON como lo que hemos visto
en nuestra aplicación, puedes ver
todo en un formato JSON. Al igual que el mensaje del sistema en el que
has establecido el rol, eres un asistente de programación, y los mensajes de usuario, lo que
el usuario está pidiendo por ello. Eso es lo que estás
diciendo, es un asistente,
cuál es exactamente la respuesta que estás obteniendo.
Eso es una ayuda. Entonces hay tres tipos de
roles hay sistema, Usuario en
sección asistente por aquí. Así que ahora puedo usar mi
ingeniería rápida por aquí. Y simplemente puedo decir que
estoy buscando un código, digamos en el mismo
código en formato CSA. Ahí es donde puedo
proporcionar estas cosas por aquí en la
sesión de chat también. Para que puedas generar el código
así como tu estudio Open AI
en el patio de chat. De eso
quería hablar. Entonces espero que esta parte sea clara,
chicos. Gracias a todos.
10. Demo Genera código con el servicio de Azure OpenAI a partir de una aplicación: Todo el mundo. Entonces
estaremos haciendo una demostración sobre la
generación del código con
es su servicio Open AI. Pero esta vez vamos a estar haciendo desde nuestra aplicación
base Python. Ya habíamos visto
que puedes crear un recurso de IA abierto
y puedes ir al
patio de chat por ahí y
puedes configurar el mensaje del
sistema y puedes usar la sesión de chat y puedes usar los ajustes de
configuración y todo. Pero esta vez, si queremos
usar lo mismo, pero desde la aplicación
basada en Python, cómo lo va a estar haciendo. Solo te llevaré a eso el
código basado en Python para que puedas entender como lo que está sucediendo
exactamente. Déjame llevarte al código. Todo bien. Este es el código
de aquí, código basado en Python. Nuevamente, necesitamos el paquete Azure
AI por aquí, así que necesitas
instalarlo usando el PEP Nuevamente, es obtener
las claves de punto final y la implementación de
este archivo ANV punto, necesitas tener un archivo ANV punto, que es algo que
estaría ahí dentro de él, y necesitas
proporcionar esos detalles Y por aquí, se puede ver eso. Tenemos dos funciones
están ahí, mayormente. En los códigos de muestra,
tenemos dos archivos que están ahí. Funciones y función go fish
Python. Hay dos funciones
están ahí. Entonces, si el
usuario presionará, digamos uno. Qué va a pasar,
agregará comentarios a
esta mi función. Eso quiere decir que este es
el código escrito
aquí en esta parte en particular, que se utiliza para calcular
el número cuadrado absoluto, se
puede entender por aquí, y va a generar simplemente
lo que va a generar. Simplemente agregará algunos
comentarios a la función. Si presionas dos, creará pruebas unitarias
para esa función, y si presionas tres, arreglará esta función particular de
Python, esa es esta, la función
go fish, eso lo que está
sucediendo aquí. Ahora, Lo mismo. Usted va a pedir un
prompt por aquí, y nosotros habíamos establecido el mensaje
del sistema, como pueden ver, habría algo llamado
mensaje del sistema. Ahí es donde ya
hablamos de cómo debería comportarse tu
IA. Que eres un asistente de IA
útil que ayuda a los programadores a
escribir código Por aquí, el mensaje de usuario es lo que está
proporcionando el usuario en el prompt, uno, dos, tres como lo que exactamente el usuario está
proporcionando por aquí. Ahora, después de eso, sea cual sea la respuesta que
vas a estar recibiendo, que al estar almacenada en un archivo, puedes verlo por aquí
dentro de este archivo de resultados. Resultados app punto TC. En su interior, hay una
carpeta llamada como resultados y cualesquiera que sean las cosas
que vaya a generar, se almacenará
por aquí dentro este archivo llamado como App dot TXT. Eso es lo que está sucediendo
en este código en particular. Cuando se trata de, solo queríamos mostrarte este
código en particular
para que
entiendas que puedes aprovechar nuevamente
tu servicio OpenI para generar
el código también a partir de este kit de desarrollo de
software Esos son los paquetes que puedes
usar que ya está ahí en Python C SHOP y otros lenguajes de
programación también. Espero que esta parte sea clara,
chicos. Gracias a todos.
11. Conferencia de filtros de contenido de demostración 16: Todo el mundo. Solo quiero llevarte
a través este laboratorio en particular
que he aprendido, que se trata de la exploración
de los filtros de contenido. Hablamos de
filtros de contenido si quieres
bloquear alguna de
las indicaciones o terminaciones dañinas Ahí es donde podemos usar
estos filtros de contenido. Por defecto, cuando básicamente
creas un recurso al aire libre, ahí es donde
ya hemos visto cómo
crear un recurso al aire libre
con estas cosas. Cuando implementa un modelo, digamos que está implementando
un modelo turbo GPT 35 Ahora en la
sección avanzada, por defecto, este filtro de contenido se
activa por defecto. Ahora bien, ¿qué pasará si el filtro de
contenido está activado? ¿Cuál es exactamente el beneficio que
obtendrá? Digamos que en la sesión de chat, preguntas
algo como describir las características
de un pueblo escocés, y simplemente configuras
el mensaje ya que eres un
tablero de chat de IA racista que hace las declaraciones despectivas
basadas en la raza y la cultura Ahora bien, qué
pasará si tienes activado por defecto
este filtro de contenido, no se apoya
la solicitud de ser racista
y despectiva ¿Por qué? Sólo por
este contenido filtra. Por lo que evitará cualquier tipo de salida
ofensiva debido a que los filtros de contenido están
ahí como su ojo abierto. Pero, ¿y si
quieres personalizar esos filtros de contenido en
función de tu, ya
sabes, el modelo personalizado? Eso también se puede utilizar. Puedes crear tu
propio filtro de
contenido personalizado basado en estas categorías como odio violencia
sexual, autolesión. Estas son las categorías
que hay cuando
se trata del contenido dañino
que también puedes puerta. También, se puede ver que,
también se puede configurar la severidad así para estas categorías particulares
como seguro, bajo medio-alto. También puedes crear tus propios filtros de contenido
personalizados. Esto es algo importante
que quería mostrarle. Espero que esta parte sea clara,
chicos. Gracias a todos.
12. Demo Genere imágenes con el servicio de Azure OpenAI: Todo el mundo. Hoy vamos a
estar haciendo una demostración sobre cómo generar imágenes
así como dónde está este es
su servicio Open EI. Hasta el momento, estábamos usando
el modelo GPT para generar nuestro código o cosas de lenguaje
natural Ahora, vamos a estar usando algo llamado como el
modelo de Dally para esta parte de imágenes El modelo Dally se utiliza
para generar las imágenes donde
proporcionarás alguna descripción También puedes
proporcionarte contenido específico y estilo que
estés buscando. Eso es lo que vamos
a usar. Así que vamos a estar usando este
modelo de Dally por aquí Déjame llevarte al portal
de Azure para
que podamos crear
un modelo de Dally Déjame llevarte al portal. Todo bien. Entonces estoy en el portal. Buscaré este servicio
Open AA. Haré clic en este Servicio Open
AA. Todo bien. Entonces este es el servicio Open A
que ya había creado, así que hago clic en este servicio
Open AA. En primer lugar, para
que pueda mostrarles el modelo Dalí del que
estábamos hablando Doy clic en este servicio Open AA, y voy a ir
a Open EA Studio. Lo abrimos. Todo bien. Me desplazaré hacia abajo y diré, vaya a Open A Studio. Espéralo. Todo bien. Entonces estoy en el Open A Studio, y voy a ir a estos modelos de
DalI porque quiero
generar algunas imágenes
usando el texto Por lo que hago clic en este modelo
DI por aquí. Vamos a esperarlo. Todo bien. Estoy en este modelo dally. Entonces detrás de escena,
lo que sucederá, automáticamente,
creó un despliegue con este nombre llamado
como Daly tres que puedas ir
al despliegue y
crear el despliegue, pero detrás de escena, qué pasará,
aunque si vienes a este patio
llamado como Dali creará automáticamente un despliegue Tuvimos que crear despliegue
para un patio de juegos de gráficos. Necesitabas crear
una implementación para esto usando este
modelo en particular Dali también Por lo que automáticamente se
creó llamado como Daly tres. Ahora, digamos, proporciono este aviso particular que
un elefante en patineta. Eso es en lo
que estoy buscando generar una imagen. Vamos a esperarlo. Todo bien. Así se puede ver eso.
Se ha generado una imagen basada en el
prompt que dije. Ahora, definitivamente puedes mejorarlo aportando algunas cosas extra
que estás estilizando, lo que estás buscando,
tal vez un elefante elefante en una patineta en forma de pcacco o algo
así, Definitivamente puedes mejorarlo. Entonces ahí es donde
puedes usar el modelo S básicamente para generar una
imagen basada en tu texto. Eso es lo que
quería mostrarte. Entonces espero que esta parte sea clara,
chicos. Gracias a todos.
13. Demo Genera imágenes de la aplicación: Hola a todos. Hoy, te
mostraré una demo sobre cómo generar las imágenes desde la aplicación
basada en Python. Ahora, déjame llevarte
a la aplicación. Ahora, en esta aplicación, notarás que
no estamos usando ningún tipo de biblioteca o
paquete que usemos PIP install o cualquier tipo de
Open AI como puedes ver No lo he hecho de Open AI Import, nada de eso porque en este archivo Python en particular, estamos usando la API básicamente. Estamos usando algo
llamado como API. Ahora, Las cosas
permanecerían igual. Como puede ver en el archivo Dot NV, debe proporcionar
el nombre del punto final y la parte clave aquí. Y por aquí en
la sección prompt, proporcionarás como qué tipo de imagen
estás buscando. Ahora bien, esta es la API a la
que estamos llamando. Entonces por aquí, puedes
ver esa base de API. Eso significa que el nombre del punto final, base de
API es qué,
su nombre de punto final, barra diagonal ON AI implementación de barra diagonal, barra
diagonal Dalit, Denación de imágenes Dal Esta es la versión APA
que estás proporcionando. Entonces esta es la API que estamos usando. Llamar al para
generar una imagen. Ahora si me desplazo hacia abajo,
estamos proporcionando las claves y estamos buscando en
forma de respuesta JSON, ¿verdad? Y en el cuerpo,
proporcionarás cuál es exactamente el prompt, y proporcionarás
cuántas imágenes deseas y podrás proporcionar
el tamaño de esa imagen. Esto es lo que puedes
proporcionar. ¿Verdad? Ahora una vez que consigas la imagen, básicamente, una vez que obtengas la respuesta,
lo
que está pasando por aquí, va a mostrar la URL
de esa imagen generada. Básicamente,
habría una URL que se
generaría en este archivo Python en
particular, y puedes ver esa URL en
particular, y puedes Una vez que
básicamente hagas clic en esa URL, podrás ver la
imagen que se ha generado. Esto es, nuevamente,
estamos usando la aplicación
basada en Python, pero esta vez no estamos usando
SDG, el kit de desarrollo de software kit de desarrollo de software es algo, las bibliotecas preconstruidas
o los paquetes. O donde estamos llamando a la EPA. EPA es también una de las formas por que podemos interactuar
con el servicio PEA. No es que OPE EPAS solo
esté disponible
para el modelo D. De hecho, hasta ahora, cualquiera que sea la aplicación Python en la que
estuviéramos trabajando donde usamos generó el código
y todas esas cosas, esos endpoints EPA también
están disponibles SDK es uno de los métodos y
APA es uno de los métodos. Espero que esta parte sea clara,
chicos. Gracias a todos.
14. Usar tus propios datos con el servicio de Azure OpenAI: Él todos. Así que hoy
estará entendiendo como puedes usar tus propios datos con como tu servicio Open EA. Hasta el momento, estuvimos dando
algunos ejemplos en nuestro servicio OpenI de que este es el tipo de
respuesta que queremos, pero también podemos usar tus propios datos con este servicio
Open AA Pero antes que nada,
entendamos la diferencia entre esta afinación fina
donde estábamos dando los ejemplos versus
usar tus propios datos. Ahora bien, la afinación fina es una técnica utilizada para
crear un modelo personalizado donde ya tenemos un
modelo como TPT 35 Turbo, y estamos aportando algunos ejemplos y
todo por aquí Básicamente, personaliza
el modelo dando ejemplo para obtener la misma respuesta
de alta calidad. Pero este proceso es un
poco intensivo de tiempo. mejor si digamos que
no estás recibiendo esa respuesta, tal vez
necesites dar
algunos ejemplos más. Esto consume mucho tiempo
y solo debe
usarse para casos de uso
donde sea necesario. Pero hay una
manera más por la cual podemos usar algo llamado como usar
tus propios datos también. Puedes especificar las fuentes ya que
ya tienes tus bases de conocimiento
ahí en función la información disponible
en tu fuente de datos. En la fuente de datos podría
ser que también puedas poner tus datos dentro como tu recurso de
búsqueda. Básicamente,
recogerá los datos y te dará la respuesta. Esta respuesta donde
tengamos usando tus propios datos definitivamente
tendrá
algo más de precisión. Ahora bien, a esta técnica también
se le llama como ernación aumentada rival Eso es R AG. Ahora, qué es exactamente. Es una arquitectura
que aumenta la capacidad de los modelos de lenguaje de
gran tamaño Ya tenemos algo llamado como modelos de lenguaje grande, y agregamos el sistema de
recuperación de información que proporciona datos de conexión a tierra Por ejemplo, como tu búsqueda de IA. Entonces, en nuestra búsqueda de Azure AI, podemos proporcionar
algunas fuentes de datos. Podemos poner nuestra
base de conocimiento allí, y puede recuperar
esa información de ese recurso en particular
llamado Azure AI search. Entonces hablamos de
algo llamado como afinación fina y
usar tus propios datos. Entonces estaremos haciendo un
laboratorio donde
usaremos una técnica llamada como usar sus propios
datos esta vez. Entonces espero que esta parte sea clara,
chicos. Gracias a todos.
15. Demo Cómo usar tus propios datos con el servicio de Azure OpenAI: Hola a todos. Así que hoy, estaremos haciendo una demostración
sobre Como usar tus propios datos con el servicio
ER Open EA. Déjame llevarte al Portal Z. Todo bien. Entonces estoy en el Portal. Buscaré un servicio
llamado este ASR Open AA. Entonces ya había creado
un servicio Open AA, y estaré usando ese
servicio y estaré abriendo Open EE Studio, ¿verdad? Déjame abrir este estudio
Open A ahora. Todo bien. Entonces voy a estar usando
esto ve a Open A Studio. Vamos a esperarlo. Todo bien. Estoy en el Open A Studio. Voy a ir a este despliegue, antes que nada, porque
necesitamos crear un despliegue. Entonces ya había creado un
despliegue para una fuente de datos. Ahora puedes ir a este chat, patio de recreo por aquí
en el lado izquierdo. Vamos a esperarlo. Todo bien. Ahora aquí, voy a proporcionar
como éste. Digamos que yo digo eso. Me gustaría hacer un viaje a Nueva York. ¿Dónde debo quedarme? Esto es lo que estoy buscando. Vamos a tratar de charlar. Y
me va a dar alguna respuesta, y esto es
lo que está recogiendo. Ahora, hasta ahora, lo que sea que
este modelo de LLA sepa, nos está dando la
información, ¿verdad? Pero, ¿y si queremos
dar nuestros propios datos? Ahí es donde estaremos
usando este concepto llamado como agregar tus
datos por aquí, ¿verdad? Entonces haré clic en agregar tus datos, hago clic en agregar una fuente de datos, y diré cargar
archivos por aquí. Entonces tengo algunos de los archivos
PDF están ahí, y estarías necesitando para
poder subir los archivos,
voy a estar usando una cuenta de almacenamiento. Entonces ya había creado
una cuenta de almacenamiento, y voy a estar seleccionando esa cuenta
de almacenamiento por aquí. Para básicamente para que pueda
recuperar archivos PDF desde ahí. También te mostraré esos archivos
PDF. Déjame mostrarte de
hecho esos archivos PDA. Déjame llevarlo a
esa cuenta de almacenamiento. Todo bien. Todo bien. Entonces iré a la cuenta de
almacenamiento, y voy a pck en la sección de
cuentas de almacenamiento de aquí Espera, y voy a ir a los contenedores del lado
izquierdo. Entonces había creado un contenedor
llamado como datos de viaje. Yo hago clic en él. Y estos son
algunos de los PDS están ahí Entonces básicamente lo que
quiero. Siempre que la IA básicamente me
responda en la sesión de chat, quiero que ese
asistente de IA refiera estos PDS y me obtenga el mejor
resultado de ello, ¿verdad Eso es lo que quiero. Así que
volveré a mi estudio Open AI. Todo bien. Y voy a estar
seleccionando esta vez. Digamos que simplemente digo eso. Yo también estaría necesitando un recurso de
búsqueda de IA porque los datos serán indexados en este recurso en particular Por lo que hago clic en esto. Todo bien. Estoy en
el recurso de búsqueda. Seleccionaré mi grupo de Recursos. Y digamos que esto es de
nuevo para Búsqueda de datos. Recurso. Entonces números aleatorios, y voy a estar
seleccionándolo en la misma región, digamos en TS, y voy a ir con la configuración predeterminada
y dar clic en Revisar más crear. Vamos a esperarlo. Ahora, hagamos
clic en Crear. Todo bien. Entonces hago clic en ir a la sección de
Recursos por aquí. Todo bien. Entonces esto se crea. Volveré a mi
estudio Open A una vez más. Todo bien. Vamos a esperarlo.
Y déjame refrescarlo. Voy a estar seleccionándolo. Espéralo. Todo bien. Entonces voy a estar
proporcionando el nombre del índice, digamos. Margie Stribl Entonces Margie, digamos que
trabajo para una compañía llamada S Marge y ahí es donde estoy
proporcionando el nombre del índice Entonces, básicamente, lo que sucede. Cuenta de almacenamiento es tener tus datos está ahí en
forma de PDA Pero los datos que
serán indexados. Índice, considera que el
índice será como una tabla donde
tendrás filas y columnas. Entonces ahí es donde estamos
dando este nombre índice como Margie Stribl Eso es lo que
usaremos, ¿verdad? Ahora voy a estar dando click
en el siguiente por aquí. Todo bien. Entonces voy a hacer clic
en. Siguiente esta vez. Ahora,
me está pidiendo los archivos. Básicamente, ya lo había
subido al Stowe, pero digamos que quiero volver
a hacerlo, así que voy a hacer clic en examinar archivos
y subirlo por aquí Todo bien. He subido todos mis archivos por aquí.
Eso se puede ver. Vamos a hacer clic en cargar
archivos. Espéralo. Y vamos a dar click en siguiente. Sección. O aquí, estaré usando el
tipo de búsqueda de palabras clave basado en la palabra clave. Eso es lo que voy a estar
eligiendo la palabra clave. Después de eso,
estaré dando clic en siguiente. Voy a usar esta sección de claves
API aquí para la parte de
autenticación. Voy a estar haciendo clic en el siguiente. Vamos a esperarlo.
Eso se puede ver. Tenemos un contenedor, ahí es donde
me está mostrando el nombre del contenedor, y este es el recurso de búsqueda. Eso es lo que está pasando. Todos los archivos
han sido subidos. Vamos a hacer clic en, guardar y cerrar. Todo diciendo que la ingestión está en
proceso. Vamos a esperarlo. Y una vez hecho, intentaremos hacer la
misma pregunta y
veremos si se refiere desde
la fuente de datos o no. Todo bien. Entonces esto está hecho. Haga clic en Prompt una
vez más e intente ver si estamos recibiendo la respuesta ahora.
Vamos a desplazarlo hacia arriba. Vamos a despejar la charla. E
intenta chatear una vez más. Y digo, me gustaría
hacer un viaje a Nueva York. ¿Dónde debo quedarme?
Vamos a esperarlo. Ahora, se puede ver eso. Puedes elegir entre los
siguientes alojamientos que te ofrece March Travel. También me está dando que
puedes reservar de Marge Travel. Ahí es donde he
dado esta fuente de datos. Entonces me está consiguiendo el nombre de los archivos PDF solo
que había subido. Entonces una cosa
que vimos esa afinación
fina, afinación fina fue dar
los ejemplos y todo. On es con el uso de sus propios datos. Ahí es donde usamos
nuestros propios datos, ¿verdad? Entonces espero que esta parte sea clara, chicos. Gracias a todos.
16. Descripción general de las prácticas de IA responsable para el modo Azure OpenAI: Todos. Así que vamos a estar haciendo prácticas
de IA responsables con seguridad modelo Open AI. Siempre que estés desarrollando
algunos de los modelos Open AI, debes seguir algunas de
las recomendaciones de Microsoft para las prácticas de IA
responsables. Ahora, antes que nada
entendamos. Muchos de estos son
sus modelos Open AI, que además no es los modelos generativos de IA que han hecho las mejoras
en su contenido, el
resumen de cogeneración y Pero con estas
mejoras, definitivamente, hay algunos
retos que están ahí, como el contenido dañino que
los usuarios pueden generar. Pueden tener privacidad. También pueden tener la
privacidad de los datos también puede estar ahí, uno de los factores importantes
que también puede ser un reto. Cómo mitigar
este tipo de riesgo Ahora, ya
nos hemos
apegado a algunos de los principios de IA responsable, donde platicamos
sobre la equidad, privacidad y seguridad,
confiabilidad y seguridad y todo Pero en alineación con estos estándares de IA
responsable de Microsoft, hay algunas recomendaciones, especialmente para estos modelos
abiertos de IA, y estas recomendaciones se
organizan en cuatro etapas. El primero es identificar. Eso significa, identificar
los posibles daños. Por ejemplo, puede identificar el
daño potencial que podría resultar de su sistema de
IA a través pruebas de esfuerzo
iterativas
o de forma de análisis Por ejemplo, está desarrollando una aplicación basada en tablero gráfico. Entonces necesitas entender si tu aplicación
está generando algún tipo de contenido que sea ofensivo, que sea
discriminatorio. Es necesario identificar
esos posibles daños. Esa es la primera etapa. Eso se llama etapa de identificación. Por lo tanto, generar contenido que fomente comportamientos ilegales o
poco éticos Es necesario identificar
ese tipo de riesgo. Esa es la primera etapa.
Ahora, el segundo es la medida. Medir significa que es
necesario medir la frecuencia y la gravedad de estos daños Puede hacer tal vez una prueba
manual o pruebas
automatizadas
también para ver si algún tipo de gravedad o algún tipo de contenido dañino
que está generando o no. También puedes hacer algún tipo de
prueba para tus datos. Ahora, mitiga. Mitigar
significa que necesita eliminar esos daños en múltiples
capas en su solución Por ejemplo, en R Open AI, también
puedes usar una cosa de
filtro de contenido, donde tiene
algo llamado as, hay
diferentes categorías donde puedes filtrar los contenidos
en función de ciertos factores. Entonces puedes usar uno de los
servicios que hay ahí como tu Open AI llamado como
filtros de contenido. Ahora, opere. Ahora operan las últimas etapas, donde se ejecuta un despliegue y el plan de
preparación operativa. Por ejemplo, puede crear un plan de respuesta a incidentes que incluya
el tiempo que tomará responder
a incidentes
imprevistos También puedes tener
un plan de reversión que defina los pasos para volver al estado
anterior en caso de cualquier
tipo de incidente Ahí es donde también desarrollarás
este plan de operación. Ahora, hablamos de filtros de
contenido en abierto A. Qué son exactamente estos filtros de
contenido. Ahora se aplican filtros de contenido al prompt o a
la finalización para evitar que
se germine cualquier lenguaje dañino u ofensivo. Ahí está tu IA abierta. Se basa en las
cuatro categorías. Una es que también puedes hacer eso
sobre la base del odio. Ahora, también puedes hacer
la restricción al contenido
sexual también que no
quieras generar
ningún contenido sexual. Tienes diferentes
categorías están ahí. Una es la violencia que describe o aboga o
glorifica la violencia También puedes hacerte una autolesión, ese lenguaje que describe
o fomenta la autolesión. Puede crear la restricción
en función de estas categorías. Ahora, los filtros siempre
se aplican en estas categorías, y también tienen
algo llamado un
ajuste de severidad como seguro o bajo, medio, alto para determinar
qué tipo específico de lenguaje son interceptados y
prevenidos por los filtros Eso es en lo que puedes usar
los filtros
de contenido como tu IA abierta. Entonces espero que esta
parte quede clara cuando se trata de los principios de IA
responsable, especialmente relacionados con el servicio Open AI.
Gracias a todos.