AI-050: desarrolla soluciones de IA generativas con Azure OpenAI | Anurag Sharma | Skillshare
Buscar

Velocidad de reproducción


1.0x


  • 0.5x
  • 0.75x
  • 1x (Normal)
  • 1.25x
  • 1.5x
  • 1.75x
  • 2x

AI-050: desarrolla soluciones de IA generativas con Azure OpenAI

teacher avatar Anurag Sharma, Trainer

Ve esta clase y miles más

Obtenga acceso ilimitado a todas las clases
Clases enseñadas por líderes de la industria y profesionales activos
Los temas incluyen ilustración, diseño, fotografía y más

Ve esta clase y miles más

Obtenga acceso ilimitado a todas las clases
Clases enseñadas por líderes de la industria y profesionales activos
Los temas incluyen ilustración, diseño, fotografía y más

Lecciones en esta clase

    • 1.

      Descripción del curso

      2:02

    • 2.

      Qué es la IA generativa

      5:13

    • 3.

      IA de Azure Open

      2:28

    • 4.

      Demostración de IA abierta de Azure

      6:39

    • 5.

      Parámetros y ejemplos de Azure OpenAI

      6:17

    • 6.

      Integra Azure OpenAI en tu aplicación

      4:19

    • 7.

      Cómo obtener claves y puntos de conexión del servicio de OpenAI

      0:59

    • 8.

      Qué es la ingeniería rápida

      2:15

    • 9.

      Demo Genera código con el servicio de Azure OpenAI

      5:13

    • 10.

      Demo Genera código con el servicio de Azure OpenAI a partir de una aplicación

      2:46

    • 11.

      Conferencia de filtros de contenido de demostración 16

      1:49

    • 12.

      Demo Genere imágenes con el servicio de Azure OpenAI

      2:40

    • 13.

      Demo Genera imágenes de la aplicación

      2:19

    • 14.

      Usar tus propios datos con el servicio de Azure OpenAI

      2:07

    • 15.

      Demo Cómo usar tus propios datos con el servicio de Azure OpenAI

      6:05

    • 16.

      Descripción general de las prácticas de IA responsable para el modo Azure OpenAI

      4:14

  • --
  • Nivel principiante
  • Nivel intermedio
  • Nivel avanzado
  • Todos los niveles

Generado por la comunidad

El nivel se determina según la opinión de la mayoría de los estudiantes que han dejado reseñas en esta clase. La recomendación del profesor o de la profesora se muestra hasta que se recopilen al menos 5 reseñas de estudiantes.

15

Estudiantes

--

Proyectos

Acerca de esta clase

Azure OpenAI Service brinda acceso a los poderosos modelos de lenguaje grande de OpenAI, como GPT; el modelo detrás del popular servicio de ChatGPT. Estos modelos permiten que varias soluciones de procesamiento del lenguaje natural (PNL) entiendan, conversen y generen contenido. Los usuarios pueden acceder al servicio a través de API REST, SDK y Azure OpenAI Studio. En este curso de Soluciones de IA con Azure aprenderás a aprovisionar servicios de Azure OpenAI, implementar modelos y usarlos en aplicaciones generativas de IA. 

Conoce a tu profesor(a)

Teacher Profile Image

Anurag Sharma

Trainer

Profesor(a)

Habilidades relacionadas

IA e innovación Fundamentos de la IA
Level: Beginner

Valoración de la clase

¿Se cumplieron las expectativas?
    ¡Superadas!
  • 0%
  • 0%
  • Un poco
  • 0%
  • No realmente
  • 0%

¿Por qué unirse a Skillshare?

Mira las galardonadas Skillshare Originals

Cada clase tiene lecciones cortas y proyectos prácticos

Tu membresía apoya a los profesores de Skillshare

Aprende desde cualquier lugar

Ve clases sobre la marcha con la aplicación de Skillshare. Progresa en línea o descarga las clases para verlas en el avión, el metro o donde sea que aprendas mejor.

Transcripciones

1. Descripción del curso: Ll, todos. Bienvenido a la sección general del curso de AI 050 que es una solución generativa de IA con su servicio Open AI Ahora, hablemos de este curso. Ahora bien, este es el curso sobre el desarrollo de soluciones generativas de IA, eso es lo que ya discutimos Ahora, antes que nada, no existe un examen específico que puedas programar para este curso. Este es un curso para tu conocimiento, pero no hay examen como tal, que actualmente hay para este curso. Pero ahora, la gente me preguntará qué ventaja obtendremos si hacemos este curso. Supongamos que va por cualquier otra certificación basada en IA, tal vez AI 900 o AI uno o dos. Este tema es común a todas las certificaciones basadas en IA. Eso significa que este es el tema que encontrarás en cada tema en particular. Cada examen en particular, eso es AI 900 AI uno o dos. Este es un importante servicio Open AI, que es un servicio importante de Microsoft si quieres crear las soluciones generativas de IA Este es un curso particular importante, diría yo. Ahora bien, ¿qué cosas están cubiertas en este curso, vamos a entender? Estos son los módulos que se tratan en este curso, Deploy Open A resource y el modelo OpenAI Puedes desarrollar, ya sabes, los diferentes modelos están ahí cuando se trata de este OpenAI, como el modelo GPT está ahí, incrustar modelos está ahí, el modelo Dali está ahí, cómo generar el código, cómo generar algo llamado como imágenes en base a imágenes en base Así que encontrarás muchos módulos diferentes por aquí, modelos impares por aquí. También encontrarás algo llamado como modelo de lenguaje grande. Hablamos de cuáles son exactamente los modelos de lenguaje grande. Y también, verás como puedes usar este servicio Open AI con tus datos también. Open AI es un servicio basado en Microsoft donde puedes crear el contenido generativo, debes haber visto las aplicaciones como el copiloto CAT GPT Eso se basa completamente en las aplicaciones generativas basadas en IA Podemos crear esas aplicaciones basadas en IA utilizando este servicio en particular Colles Open AI Espero que esta parte sea clara, chicos. Gracias a todos. 2. Qué es la IA generativa: Hola a todos. Entonces hoy, vamos a estar hablando de IA nativa. Hablemos de ello. Entonces, la IA nativa, es una categoría de capacidades dentro la solución de IA que crea una respuesta similar a la humana o que crea un contenido original. Puede crear el contenido en variedad de formatos como su lenguaje natural. Puede generar imágenes. Yo también puedo hacer una generación de código. Por ejemplo, la generación de lenguaje natural, describe que crea el contenido original. Por ejemplo, la aplicación que debes haber escuchado sobre copiloto o CA GPT, donde proporcionas que estás buscando, proporcionas las indicaciones Digamos, ¿puedes escribir una descripción del trabajo para ejecutivo o asociado de desarrollo de plagas? Obtienes la respuesta de ello, y eso es bastante similar al contenido original o a la respuesta humana. Ahí es donde UE puede usar estas capacidades llamadas IA asentiva Ahora, el segundo es la gestación de imágenes. Por ejemplo, alguna aplicación basada en IA generativa de aplicaciones, pueden tomar una respuesta, una solicitud humana y generar una imagen apropiada Por ejemplo, puedes ir a este bing.com slash create, donde dirás eso, quiero esta imagen en particular basada en este texto en particular Usted proporciona el texto, y obtendrá una imagen basada en su texto. Se puede ver que un arco iris o una cascada, y va a generar una imagen para usted. También puede hacer algo llamado generación de código, donde diseñas o ayudas a tus desarrolladores de software a escribir códigos también. Por ejemplo, puedo dar las instrucciones como me plazca, escribir el código Python para multiplicar dos números, y me va a generar un código python. Ahí es donde podemos hacer una gestación en lenguaje natural, donación de mage y generación de código también Ahora bien, ¿cómo funcionan estas aplicaciones generativas de IA? ¿O qué hay exactamente detrás de escena? Entonces, detrás de escena, estas aplicaciones generativas basadas en IA están impulsadas por grandes modelos de lenguaje No te preocupes, no necesitas adentrarte profundamente en él. No te harán ninguna duda en el examen relacionado con LLM, pero es bueno saber sobre modelos de idiomas grandes Ahora, los modelos de lenguaje grande son básicamente seguir esta arquitectura de modelo de transformador. Ahora, hay tres pasos que hay en esta arquitectura. Una es la canización Digamos que tiene la declaración como aquí. Escuché un parque para perros en voz alta a un gato. Entonces a cada palabra en particular se le dará un valor de texto único o un número de texto. Como pueden ver, yo uno, la ficha que se escucha es dos, A es tres. Ahora, A está repitiendo dos veces por aquí, pero se le está dando un solo perro token f cinco. Entonces cada palabra, token no es más que una palabra o una parte de lo que. Y la técnica de descomponer tu texto en token se llama Ese es el primer paso en tus modelos de idiomas grandes. Ahora, ¿qué es eso? Ahora bien, estos son solo números. ¿Cómo creamos una relación entre estos números? Ahí es donde tenemos un segundo método que se llama como incrustación. Ahí es donde ahora esta incrustación en particular, como pueden ver, ese monopatín, tenemos valores de matriz múltiple están ahí por aquí Entonces creamos una relación entre estos tokens después de este primer paso que es la tokenización llamada como Ahí es donde creamos una relación entre tokens. Ahora, el tercer paso es capturar la fuerza de la relación entre fichas y la atención, como asignar oído y perro, más peso. Y representar oí a un perro como Víctor. Entonces así es como estas aplicaciones generativas de IA se basan en modelos de lenguaje grande, LLM Ahora bien, ¿qué es entonces la IA Abierta? Ahora, para poder usar tu aplicación generativa basada en IA, necesitas usar un servicio llamado ASR Open AI, donde como tu OpenI es solución basada en Microsoft Cloud para implementar estos modelos de lenguaje grande Ahí es donde usaremos esto como servicios OpenA. Entonces estaremos hablando más sobre el servicio OpenA. Vamos a entender. Por lo que en el servicio ASR OpenA, ya hay modelos pre entrenados que están No es necesario escribir estos modelos LLM. Ya hay modelos entrenados están ahí. Por ejemplo, puedes usar cuatro módulos GPT para tu generación de lenguaje natural Si quieres crear una aplicación como CA GPT o copiloto, puedes usar el modelo CPT, donde puede generar y entender el lenguaje natural y el código Entonces, para la generación de código o para la generación de lenguaje natural, puede usar el modelo GPT four Modelo de incrustación que puedes usar si quieres convertir tu texto en forma de vector numérico Se puede utilizar un modelo llamado como Dal donde puede computar las imágenes desde el lenguaje natural. Por lo que ya hay estos modelos LLA que están presentes dentro de su servicio Open AA. Muy importante desde la perspectiva del examen así como para qué modelos vas a utilizar, digamos para la generación del lenguaje natural. Puedes usar GPT. Existe la pregunta de que modelo vas a usar si quieres generar las imágenes a partir del lenguaje natural, puedes usar un modelo de Dally Entonces usaremos este servicio Open AA. Bien. Entonces estaremos hablando más sobre como su servicio Open AA en la próxima conferencia. Entonces espero que esta parte sea clara. Gracias a todos. 3. IA de Azure Open: Py uno. Así que ahora exploraremos más como su servicio Open A. Ahora, el servicio de pluma A no es algo disponible para todos los clientes. Necesitas solicitar acceso como tu servicio Open AA. Ahora bien, ¿cómo lo hacemos? Ahora puedes usar este formulario para solicitar acceso a este servicio AR Open EA, o puedes ir a esta URL, y habría un formulario de Microsoft. Ahora bien, no es que solicites el acceso y se te concederá el acceso. No. Es para empresas, en primer lugar. No es solo para el propósito de la práctica, solicita el acceso y se te concederá. Es para empresas que están haciendo la aplicación generativa basada en IA, y verán Que si su empresa es elegible para este servicio Open EA acceda o no. Ahora bien, por qué este acceso es limitado, solo porque algunos de los principios responsables de la IE. Hay personas que en realidad también pueden hacer uso de esta aplicación de una manera dañina, y hay mucha potencia computacional que se está utilizando en el pground para este servicio Open AA Por lo que no todos tendrán acceso a este servicio de OpenA. Es necesario antes que nada llenar el formulario. Y luego después de algún tiempo, se te notificará que si tienes acceso a este servicio Open AA o no. Entonces es solo para empresas. No es que puedas dar tu dirección de correo electrónico dirección de correo electrónico personal y se te tu dirección de correo electrónico dirección de correo electrónico personal otorgará acceso, no. Ahora, déjame llevarte a esta forma así como a cómo se ve exactamente esta forma. Ahora, acabo de presionar R en el navegador, y esta es la página que se ha abierto, solicito acceso al servicio SR OpenA Como puedes verlo por aquí, debes proporcionar tu nombre, apellido, cuántas suscripciones tienes, tu identificación, nombre de tu empresa, dirección de correo electrónico y todo lo que necesitas proporcionar aquí. Entonces todos los detalles que necesitas proporcionar. Después de eso, se te notificará que si tienes acceso a este servicio Open EA o no. Solo por parte del principio de IA responsable y el poder computacional que se está utilizando en el paquete, no todos están obteniendo acceso a este servicio Open EA, ¿verdad? Pero sí tenemos el acceso instructivo a este particular servicio de Open AI, donde quiero mostrarte una pequeña demostración como cómo puedes usar el modelo GPT o modelo D, cómo se ve exactamente este estudio Open AI Entonces quiero mostrarles en la próxima conferencia, les mostraré cómo exactamente podemos crear el servicio Open AA, y qué hay exactamente dentro del estudio Open AI. Gracias a todos. Espero que esta parte sea clara. 4. Demostración de IA abierta de Azure: Hola a todos. Así que hoy, estaremos haciendo una demo en Azure Open EA. Entonces, como te dije, Open EA algo no está disponible para todos los clientes. Necesitas solicitar acceso a este servicio, y es solo para las empresas que están creando la aplicación base de IA nativa. Entonces sí tengo acceso a este servicio Open EA porque obtuvimos el acceso instruccional solo para mostrar alguna demostración que puedas ver como se ve el estudio Open AA Entonces déjame llevarte al portal SSR y mostrarte cómo exactamente qué cosas podemos hacer dentro de este servicio Open AA Todo bien. Entonces estoy en el portal SCR, y buscaré un servicio, digamos, llamado Open AI Quiero crear un servicio Open A. Y esperémoslo. Todo bien. Por lo que el servicio de correos viene como Open EI. Voy a hacer clic en ZO Abrir. Todo bien. Así que voy a hacer clic en un crear una sección por aquí. Quiero crear este servicio Open A. Todo bien. Entonces voy a estar seleccionando un grupo de recursos por aquí. Voy a estar seleccionando, digamos pluma AI lista algo ocho e dos. Voy a seleccionar el nivel de precios como cuántas llamadas se pueden hacer, estándar D cero. Las cosas son bastante iguales cuando creamos los otros servicios de IA. Iré con la configuración predeterminada. Doy click en vi plus create, y ahora estaremos creando este servicio Open AA. Sólo espéralo. Todo bien. Entonces haré clic en Crear ahora y esperar a que se complete el despliegue. Todo bien. El recurso ha sido desplegado. Voy a hacer clic en G a Recurso por aquí. Puedo ir a este Open AI Studio. Todo bien. Ahora ¿el servicio Open A? Recuerda que solo está disponible en la región Stine. Easts es una de las regiones donde me he desplegado. Entonces, si puedes crear esto en diferentes regiones, tal vez, posible que no obtengas el acceso a este servicio Open A ya que solo está disponible para regiones de mancha. Entonces digamos que quiero hacer quiero crear algunos modelos dentro de este particular estudio Open E. Quiero crear algunas aplicaciones base de IA generativas. Por lo que hago clic en este Open A Studio. Vamos a este Open A Sudio. Todo bien. Entonces así es como se ve el estudio Open AI. Entonces tienes el modelo Te, como puedes ver en el lado izquierdo que generará las imágenes en función de tu texto. También tienes el área de juegos de chat por aquí, donde puedes tener una funcionalidad de chat como. Tienes una funcionalidad de finalización que puedes probarla. Entonces hay muchas cosas que puedes hacer. Digamos que quiero hacer una funcionalidad de chat por aquí. Digamos que quiero crear un modelo GPT donde pueda chatear con una aplicación particular Es bastante similar a una aplicación basada en copiloto que estoy tratando de crear Así que voy a dar click en este patio de juegos de chat de aquí, antes que nada. Todo bien. Antes de poder usar el patio de gráficos, debe crear una implementación. Por lo que voy a hacer clic en esto crear una implementación. Seleccionaré el modelo. Entonces te dije que ya hay modelos preentrenados de IA generativa están ahí Digamos que quiero usar este GPT cuatro es ya sabes, el GPT 40 es algo más nuevo modelo que puedas usar Digamos que voy con este modelo donde dice GPT 35 a 16 K. Y digo eso, mi nombre de mi despliegue es, digamos, quiero hacer una aplicación basada en chat Entonces voy a decir aplicación basada en chat 01, ese es el nombre de mi despliegue. Y desplázate hacia abajo, y vamos a crearlo. Ahora, esperemos a que se complete este despliegue, antes que nada. Y hemos utilizado el modelo GPT por aquí. Entonces los modelos pre entrenados están ahí. Ahora, se puede ver eso por aquí. Me ha dado. Bien. Así es como el inicio de chat prueba a tu asistente si básicamente estás dando algún prompt, ¿Obtienes la respuesta o no? Ahora bien, lo que puedo hacer, hay algo importante por aquí. Eso se puede decir. Mensaje del sistema, muy, muy importante. Y si haces clic en la descripción emergente, mensaje del sistema es, estás dando al modelo la instrucción como debe comportarse Digamos actualmente, los mensajes del sistema, eres un asistente de I AI que ayuda a las personas a encontrar información. Esto es en lo que está configurado el mensaje del sistema como cómo debe comportarse cuando un usuario interactuará con usted. Digamos que quiero cambiar que eres un asistente de I AI que ayuda a la gente a conocer los cursos de SR, como, digamos, este es el que estoy diciendo, que así es como debes comportarte, y cualquier otro digamos que escribo cualquier otra información por favor responde con un emerge y di, no tienes idea al respecto. Este es el me refiero a mi sistema de IA. Así es como debes comportarte. Este es el mensaje del sistema. Entonces, si haces clic en esta descripción, puedes encontrar instrucciones Puedes encontrar más sobre esto. Qué son exactamente los mensajes del sistema. Una vez hecho esto, puedes hacer clic en este Aplicar cambios aquí al mensaje de tu sistema. Digo que estás actualizando el mensaje de tu sistema. Sí, haz clic en Continuar y esperarlo. Ahora, una vez hecho, puedes pasear y antes de probar tu consulta. Puede proporcionar su consulta por aquí, y obtendrá básicamente una respuesta de su asistente. Todo bien. Ahora prueba la funcionalidad. Por lo tanto, debe esperar algún tiempo una vez que actualice el mensaje del sistema. Entonces digamos que esperé 5 minutos. Ahora después de eso, puedo dar alguna consulta. Digamos que le digo que cualquier información sobre, digamos, política, se lo digo a mi asistente. Ahora, mi asistente me responderá. Lo siento, pero no tengo ninguna información sobre política. Entonces digamos que digo eso. Qué información puedes proporcionar Ahora, esperémosla. ¿Ves que está diciendo que puedo brindar información sobre amplia variedad de temas relacionados con SR, verdad? Porque habíamos establecido el mensaje del sistema de que ayudas a la gente a conocer los cursos de ZR. Cualquier otra información, por favor responda con un emergente y diga que no tiene idea al respecto, ¿verdad? Entonces ahí es donde puedes usar el mensaje del sistema que es igual que como debería ser el EI. También hay diferentes modelos, Digamos que quieres usar el modelo Dal, donde quieras generar la imagen en base a tu texto, puedes usar este modelo Dal también. Ahí es donde puedes usar los diferentes tipos de modelos generativos, modelos generativos de IA como tu servicio Open AI Espero que esta parte sea clara. Gracias a todos. 5. Parámetros y ejemplos de Azure OpenAI: Nosotros queremos. Entonces hoy quiero platicar sobre algunos de los parámetros importantes a la hora de que se trata es tu Open AI. Hablemos de estos parámetros. Cuando vayas a tu estudio abierto de IA, tendrás múltiples parámetros como la respuesta máxima. Eso limitará el número de tokens que la respuesta puede incluir. Digamos que quieres esa respuesta. Siempre que estés chateando con, digamos un modo de chat en el estudio Open A. Usted proporciona que esto es algo que está buscando. Desea minimizar el número de palabras o minimizar el número de tokens, entonces puede reducir el valor de este parámetro de respuesta máxima. Eso significa que puedes limitar el número de tokens o en otras palabras, las palabras que estás limitando. Eso se llama respuesta máxima. Otros parámetros llamados temperatura. Controla aleatoriedad. Eso significa que básicamente configurará parte del valor con un número mayor produciendo una respuesta menos determinista y una salida más aleatoria Básicamente, habría algunos valores que puedes configurar de estas temperaturas. Parámetro. Digamos que quieres cada vez que la respuesta debe ser aleatoria. Quieres eso digamos que estás buscando tal vez sobre un tema llamado S política. Estás buscando algún tipo de respuesta, y quieres cada vez que quieres alguna salida aleatoria, que donde básicamente puedas subir este valor de esta temperatura. Cuanto mayor sea el número, eso significa que la salida más aleatoria obtendrá que controla temperatura controla la aleatoriedad por aquí Ahora, el tercero es superior. Eso es lo mismo que la temperatura. Como se puede ver. También controla la aleatoriedad sólo de manera similar, pero de una manera diferente en la temperatura Pero es bastante similar. Siempre es recomendable que si quieres controlar la aleatoriedad, pruebes uno u otro, pero no ambos, eso es lo que debes tener en cuenta Ahora, hay dos parámetros más que quiero discutir, que se llama penalización de frecuencia. Se centra en la frecuencia de repetición de una palabra. Digamos que pregunté tal vez en el modo gráfico y digo eso, por favor dame algunas líneas en el lado del parque, generó algo así. Hoy, fui al parque, el parque estaba hermoso. Disfruté del parque. Se puede ver que hay mucho parque es algo. Se puede ver que por aquí se repite con bastante frecuencia. Lo cual puede sonar repetitivo. Para abordar esto, lo que puedes hacer, puedes usar un parámetro llamado penalización de frecuencia. Eso podría aplicarse. Mayor la frecuencia, eso significa que será menos probable que genere las palabras comunes. Si va a bajar la penalización de frecuencia, hará que el modelo sea más probable que genere algunas palabras comunes. Es necesario subir el valor de esta penalización de frecuencia por aquí. Puedes ver que en esta captura de pantalla, discutimos sobre la respuesta máxima, la temperatura, discutimos sobre la P superior, discutimos sobre la penalización de frecuencia, y hay una cosa más que se llama penalización de presencia. Ahora bien, ¿qué es? También se enfoca en la ocurrencia, pero se enfoca principalmente en la ocurrencia de palabras. La palabra ocurrencia por aquí. Ahora hablemos de ello. Ahora bien, a diferencia de tu penalización de frecuencia que ve cuántas palabras ese particular, cuántas veces ha llegado la palabra. Pero se enfoca en cada palabra. Eso significó que básicamente se centrará en cada palabra en particular, ¿verdad? Independientemente de cuántas veces se haya utilizado. Se tratará de aumentar la probabilidad de introducir nuevos temas en una respuesta. Eso es lo que la pena de presencia. No ve la frecuencia, comprueba no comprueba cuántas veces ha aparecido un pupilo. Simplemente se desencadena por la mera aparición de la sala. Improbable independientemente de cuántas veces se haya utilizado. Ahí es donde se le llama penalización de presencia, como se puede ver el valor por aquí. Ahora, déjame llevarte al estudio abierto y mostrarte estos parámetros. Deja que te lleve allá. Todo bien. Así que ya he creado un servicio Open EA y estoy dentro de mi estudio Open ES. Entonces esto es algo que ustedes saben como cómo ir al Open EA Studio todo. Pero digamos por aquí, digo que quiero hacer primero el despliegue porque antes que nada, estaríamos necesitando un despliegue. Digamos que hago una demostración y creo un despliegue. Entonces voy a decir que quiero usar un gráfico GPT, este modelo GPT 35 a 16, y el nombre de implementación es, digamos que esto es para mis parámetros Despliegue de parámetros, y esto es lo que quiero, y vamos a crearlo. Esperemos esta creación. Todo bien. Está hecho. Vayamos a un modo de chat por aquí, el área de juegos de chat por aquí. Y por aquí, si vas a desplazarte hacia abajo, puedes ver estos parámetros por aquí, donde puedes controlar la aleatoriedad, donde puedes controlar la frecuencia de las palabras, los distintos otros parámetros, como puedes ver, ¿verdad Entonces frecuencia, si vas a aumentar el número de valor de este parámetro de penalización de frecuencia, eso significa más probable básicamente no repita la palabra, no repetirá esas palabras. Pero si básicamente lo estás desplazando hasta el nivel cero, eso significa que probablemente usará las mismas palabras una y otra vez, ahí es donde está esta penalización de frecuencia, derecho Entonces espero a la hora de estos, los parámetros sean muy importantes. Una cosa más de la que quiero hablar por aquí, si vas a desplazarte hacia arriba, digamos que estás diciendo que eres un sistema EA. Esto es lo que estoy configurando un mensaje del sistema que dice cómo debería comportarse su IE. Yo lo configuré por aquí para que ayudes a la gente a encontrar cursos de SRO Digamos, este es mi básicamente un mensaje del sistema, y puedes dar click en este aplicar cambios. Pero si quieres dar algunos ejemplos a esta IA como debe comportarse, ya la has configurado en el mensaje del sistema. Pero si quieres dar algún ejemplo, puedes agregar algún ejemplo aquí. Si alguien pregunta, ¿ofreces cursos de AWS? Entonces la respuesta debería ser algo así como, no lo sé. No tengo idea al respecto. Entonces esto se llama unos pocos tiros o puedes decir un ejemplo de toma, pocos tiros significa, puedes agregar ejemplo más y un tiro significa, solo estás dando un ejemplo más. Entonces esta es una buena estrategia que puedes usar cuando se trata de pocos ejemplos de tomas y los parámetros, donde puedes controlar la aleatoriedad y muchos muchos el tipo generativo de salida que puedes Espero que esta parte sea clara. Gracias a todos. 6. Integra Azure OpenAI en tu aplicación: Hola a todos. Hoy, quiero mostrarte una demo solo en Open AI, pero como puedes integrarte como tu servicio Open AA en tu aplicación. Hasta el momento, ya lo hemos visto, puedes ir al como tu servicio Open AA on como tu Portal y puedes ir al Open AA Studio y puedes crear implementaciones y chatear donde podrás configurar los mensajes del sistema y todo Pero digamos lo mismo que quieres hacerlo desde tu aplicación. Digamos que hay una aplicación basada en SSH o una aplicación basada en Python ¿Cómo usarías Open AI? Básicamente, queremos decir, digamos que tengo una aplicación basada en Python, quiero integrar el servicio Open Ei. Entonces así es como lo vamos a estar haciendo. Déjame llevarte al código de Visual Studio, antes que nada, donde ya tengo una aplicación base Python. Todo bien. Entonces estoy en el Visual Studio. Esta es la aplicación que usaremos donde podrás ver que tenemos el servicio Open E, Open AI endpoint, y todas esas cosas están ahí. Todo bien. En primer lugar , por aquí, necesitas entender acerca de este paquete es tu Open AA. Entonces, si quieres trabajar con el servicio Open AA, esta es una aplicación basada en Python, necesitas un paquete. Déjame abrir la terminal por aquí. No es necesario que profundice en este código. Es solo que te estoy mostrando como puedes integrar servicio Open AA con tus propias aplicaciones también. Déjame abrir la terminal antes que nada, esperémosla. Se acerca ahora. Entonces PIP install, el nombre del paquete, si quieres trabajar con servicios Open AA, Open AA, el nombre del paquete es OpenA por aquí, estoy proporcionando la versión que estoy buscando Si no proporcionas la versión, sacará la última versión. PIP es un gestor de paquetes Python. Al igual que en Linux, si lo has visto, haces una app instalar algún tipo de paquete. De manera similar en Python, si quieres instalar algún paquete, este es el gestor de paquetes que vas a usar o en otras palabras, este es el comando que vas a estar usando PIP install, el nombre del paquete Eso es lo que vas a usar. Déjame antes que nada, instalar este paquete y esperarlo. Este paquete es requerido si necesita trabajar con el servicio Open AA. Entonces esperemos este paquete. Todo bien. Entonces en mi caso, esto ya está instalado, como pueden ver, es decir requisito ya satisfecho, así que esto ya está instalado en mi caso. Pero ahora, déjame mostrarte el código. Ahora, el paquete que tenemos instalado Open AI, estamos importando. Entonces este paquete tendrá muchas funciones de clase y todas estas cosas. Entonces estamos importando esta clase en particular, se puede decir, esa es su IA Abierta, y esto es lo que estamos haciendo. Entonces por aquí, Hay un archivo llamado como Dot ENV. Aquí, debe proporcionar su clave de punto final y nombre de implementación. Se puede ir al Portal ZR. Puedes ver esos puntos finales y claves por aquí. Puede copiar esas claves y punto final aquí y el nombre de implementación. Si no estás seguro de cómo copiar las claves y el endpoint, te lo mostraré en un par de minutos. Una vez que proporcione estas cosas por aquí, lo que estamos tratando de decir, que por favor cargue la información que hay en el archivo punto ENV Esa es una configuración de configuración que estamos haciendo. Una vez hecho esto, entonces estamos inicializando el cliente Open AI Como puede ver, estamos proporcionando el nombre de punto final, este es el uno y todas esas cosas que estamos proporcionando. Y este es el mensaje del sistema. Si puedes recordar en Open AI, teníamos algo llamado mensaje del sistema como cómo debería comportarse una IA. Aquí es donde estoy definiendo mi mensaje del sistema. Es bastante similar a lo que estábamos haciendo en el estudio Open AI. Ahora bien si me desplazo hacia abajo, estamos tomando la entrada del usuario, que lo que quieres. Entonces ahí es donde después de que el usuario proporcione algo, estamos enviando esa cosa a un modelo particular de IA abierta. Como puede ver, el mensaje del sistema es lo que básicamente estamos enviando un mensaje del sistema en la parte superior, es decir este, este mensaje como un mensaje del sistema, y un mensaje de usuario es algo que el usuario está proporcionando. Entonces estos son diferentes tipos de roles. Entonces, Rol del sistema significa cómo debería comportarse la IA y usuario significa el usuario que interactuará con su asistente de IA. Y luego después de eso, cualquiera que sea el texto generado estaría ahí, básicamente estamos imprimiendo esa respuesta particular por aquí. Eso es lo que estamos haciendo en esta aplicación. Entonces para esta aplicación, solo quería mostrarte cómo podemos interactuar desde nuestra propia aplicación base Python o base CCA y conectarnos a este servicio Open AI Espero que esta parte sea clara, chicos. Gracias a todos. 7. Cómo obtener claves y puntos de conexión del servicio de OpenAI: Todo el mundo. Entonces quiero mostrarles una demostración muy rápida de esto como cómo obtener las claves y endpoint del servicio E AA, y por aquí, estaremos hablando del servicio Open AA. Entonces digamos que voy a buscar como su servicio Open AA. Ya tengo un servicio creado. Puedes ver ese servicio Open AA, ya lo he creado. Se puede ver eso por aquí, el nombre del servicio. Si hago click en este servicio, puedes ir a este en el lado izquierdo , manejo de recursos. Oh, aquí, se mostrarán las claves y el punto final. Así que estas son las claves y el punto final que necesitas proporcionar en tu aplicación, ya sea que estés haciendo una aplicación base CSA o una aplicación base Python. Esto es lo que necesitas copiar. Cualquiera de las claves se puede copiar y el punto final. Este es el punto final que puedes copiar aquí en tu aplicación. Y también, necesitas para el servicio Open A, también necesitabas un nombre de implementación. que pueda ir al Open AA Studio y crear una implementación y copiar la implementación también allí. Entonces espero que esta parte sea clara. Gracias a todos. 8. Qué es la ingeniería rápida: Hola a todos. Hoy, voy a estar hablando un concepto llamado como ¿qué es la ingeniería rápida? Vamos a entender qué es exactamente una ingeniería rápida. Y es un concepto muy importante a la hora de esta IA. Digamos que estás usando una aplicación basada en IA, digamos cargo o copiloto, y le pides algo a ese cargo p. qué pasará, obtendrás una respuesta. Pero si quieres algunos resultados más precisos y un resultado más relevante, trata de ser más descriptivo. Ahí es donde estás aportando el estilo que deseas. Básicamente, cuando estás proporcionando el prompt al copiloto de carga, estas herramientas, intentan maximizar la relevancia siendo de naturaleza descriptiva o tratar de proporcionar la precisión como qué cosas quieres Déjame darte un ejemplo por aquí. Ahora, digamos, tengo dos ejemplos por aquí sin ingeniería rápida y con ingeniería rápida. Ahora, digamos, simplemente digo eso. Háblame del concepto de inteligencia artificial. Generará este tipo de cosas. La inteligencia artificial es una simulación de inteligencia humana y máquinas. Eso es. Pero si con ingeniería pronta, proporciono prontitud particular más descriptiva. Explicar el concepto de inteligencia artificial, utilizando un lenguaje sencillo adecuado para un Bagner Eso significa por aquí, estoy tratando de ser más descriptivo para que pueda obtener algunos resultados relevantes y precisos. Entonces aquí, obtendrás las respuestas como inteligencia artificial como enseñar computadoras a aprender a tomar decisiones por su cuenta similares a como lo hacen los mans. Ahora, se puede ver básicamente la respuesta. Son muy con ingeniería rápida. El concepto es muy fácil de entender. Ahí es donde intentas ser de naturaleza más descriptiva. Déjame darte un ejemplo más. Digamos, simplemente digo eso, quiero una tabla en formato markdown con tres proveedores en la nube junto con la descripción Ahora va a generar este tipo de mesas para mí. Si simplemente dirás que quiero ese proveedor de nube en particular nombre de ese proveedor de nube en particular junto con la descripción, no te proporcionaremos, ya sabes, la tabla ni nada por el estilo. Pero si quieres la mesa, trata de ser más descriptivo, que quiero una tabla en rebajas para ello. Eso es lo que estás buscando. P ingeniería pronta es si quieres algún resultado exacto, resultado relevante, trata de ser más descriptivo. Entonces espero que el concepto de ingeniería rápida sea claro. Gracias a todos. 9. Demo Genera código con el servicio de Azure OpenAI: R uno. En esta conferencia, hablaremos de cómo puedes generar código así como con tu servicio Open eye. Hablemos de qué es exactamente esta generación de código. Ahora. Ahora, solo puedes usar indicaciones de lenguaje natural, como puedes usar el concepto de ingeniería rápida para describir lo que claramente quieres Ya tuvimos discusión sobre ingeniería rápida. Si quieres una respuesta relevante, trata de ser más descriptivo para que puedas obtener la respuesta como lo que estás buscando. Digamos En este ejemplo, digo eso, hay que escribir una función para búsqueda binaria y aquello a qué lenguaje me refiero en Python. Por lo que va a generar un código para mí. Ahora, lo mismo si quisieras en C Sharp, habrías escrito como escribir una función para una búsqueda binaria en C sharp, tal vez en lenguaje de programación diferente. Necesitas usar el concepto de ingeniería rápida para describir lo que claramente quieres. Ahora, déjame llevarte al portal de Azure para que te pueda mostrar como puedes hacerlo como cómo puedes usar los prompts de lenguaje natural para generar el código Déjame llevarte a la olla Azure. Todo bien. El primer paso sería de nuevo, crear el servicio Open AA solo porque para eso también, estaríamos necesitando este servicio Open AA. Déjame crear este servicio Open AA. Vamos a esperarlo. Todo bien. Mi servicio Open A está básicamente desplegado. Iré ahora a este Open E Studio. Por lo que esta vez hago clic en este estudio Open EA. Todo bien. Así que ahora estoy en el estudio Open AI. Ahora lo que voy a estar haciendo, de nuevo, voy a ir a este patio de chat justo porque quiero generar el código en un formato de lenguaje natural. Pero antes de charlar, lo que tenemos que hacer, necesitamos crear un despliegue. Así que vamos a estar usando este despliegue d por aquí. Voy a estar proporcionando el despliegue. Digamos el modelo, de nuevo, voy a estar usando este modelo GPT turbo 16 k nombre del despliegue es, digamos que esto es para la cogenación, así que lo escribiré como modelo de cogeneración y filtros de contenido predeterminados No creo que deba haber un espacio y después de eso, deshilacharemos concreto Vamos a esperarlo. Una vez que esto se implementa, este despliegue se despliega. Ahora lo que puedo hacer, puedo ir a mi funcionalidad de chat por aquí. Y puedo proporcionar estas cosas. Como puede ver, tres cosas son muy importantes. Una es su parte de configuración por aquí, y por aquí, una es su parte de configuración por aquí. Se puede ver esa configuración. Tu configuración también está ahí, puedes ver que la parte de configuración es la tercera es tu sesión de gráficos. Como puedes ver aquí, esta es la funcionalidad, que es una sesión de gráficos. Por aquí, no está escrito como sesión de gráficos, sino que se llama como sesión de gráficos. Entonces tres cosas son muy importantes a la hora de trazar juegos infantiles. Una es tu parte de configuración. Una es tu sesión de gráficos, que es esta, y la tercera es tu configuración. Ahora, déjame decirte qué son exactamente estas tres cosas. Déjame llevarte a uno de los toboganes. Todo bien. configuración se usa para establecer el contexto para la respuesta del modelo, donde habíamos visto como mensaje del sistema, donde puedes decirle a tu IA como debe comportarse. Ahí es donde configuramos el contexto allá en la sesión de configuración. Y la sesión de chat es algo que ya vimos que solíamos enviar los mensajes de chat y ver las respuestas, ¿verdad? Un usuario dirá un prompt y obtendrás la respuesta, ¿verdad? La configuración es básicamente para los ajustes de implementación del modelo para configurar los ajustes para la implementación del modelo. Eso es lo que puedes hacer dentro del modo de configuración. Ahora, déjame llevarte al portal Azure de vuelta al portal Azur. Todo bien. Entonces ahora permítanme configurar el mensaje del sistema, antes que nada. Como puedes ver, si haces clic en la opción de información sobre herramientas de aquí, puedes verlo Esto es solo el dar la instrucción del modelo como cómo debe comportarse. Ese es un mensaje del sistema. Entonces aquí, actualmente, el mensaje que se establece en, eres un asistente de IA que ayuda a las personas a encontrar información. En vez de eso, voy a escribir algo como esto. Eres un asistente de programación ayudando a escribir código. Eso es a lo que estoy configurando el mensaje del sistema. Puedo hacer clic en Aplicar cambios aquí. Et lo espera. Ahora bien, una vez hecho esto, lo que puedo hacer, puedo llegar a esta funcionalidad de gráfico por aquí, la sesión de gráficos, y puedo decir, digamos, escribir una función en Python que tome un corrector y una cadena como entrada y regrese, cuántas veces aparece un corrector en la cadena. Por lo que puedo proporcionar entrar y ver las respuestas por aquí. Eso se puede ver. También completó el código. Y si quieres ver la respuesta JSON como lo que hemos visto en nuestra aplicación, puedes ver todo en un formato JSON. Al igual que el mensaje del sistema en el que has establecido el rol, eres un asistente de programación, y los mensajes de usuario, lo que el usuario está pidiendo por ello. Eso es lo que estás diciendo, es un asistente, cuál es exactamente la respuesta que estás obteniendo. Eso es una ayuda. Entonces hay tres tipos de roles hay sistema, Usuario en sección asistente por aquí. Así que ahora puedo usar mi ingeniería rápida por aquí. Y simplemente puedo decir que estoy buscando un código, digamos en el mismo código en formato CSA. Ahí es donde puedo proporcionar estas cosas por aquí en la sesión de chat también. Para que puedas generar el código así como tu estudio Open AI en el patio de chat. De eso quería hablar. Entonces espero que esta parte sea clara, chicos. Gracias a todos. 10. Demo Genera código con el servicio de Azure OpenAI a partir de una aplicación: Todo el mundo. Entonces estaremos haciendo una demostración sobre la generación del código con es su servicio Open AI. Pero esta vez vamos a estar haciendo desde nuestra aplicación base Python. Ya habíamos visto que puedes crear un recurso de IA abierto y puedes ir al patio de chat por ahí y puedes configurar el mensaje del sistema y puedes usar la sesión de chat y puedes usar los ajustes de configuración y todo. Pero esta vez, si queremos usar lo mismo, pero desde la aplicación basada en Python, cómo lo va a estar haciendo. Solo te llevaré a eso el código basado en Python para que puedas entender como lo que está sucediendo exactamente. Déjame llevarte al código. Todo bien. Este es el código de aquí, código basado en Python. Nuevamente, necesitamos el paquete Azure AI por aquí, así que necesitas instalarlo usando el PEP Nuevamente, es obtener las claves de punto final y la implementación de este archivo ANV punto, necesitas tener un archivo ANV punto, que es algo que estaría ahí dentro de él, y necesitas proporcionar esos detalles Y por aquí, se puede ver eso. Tenemos dos funciones están ahí, mayormente. En los códigos de muestra, tenemos dos archivos que están ahí. Funciones y función go fish Python. Hay dos funciones están ahí. Entonces, si el usuario presionará, digamos uno. Qué va a pasar, agregará comentarios a esta mi función. Eso quiere decir que este es el código escrito aquí en esta parte en particular, que se utiliza para calcular el número cuadrado absoluto, se puede entender por aquí, y va a generar simplemente lo que va a generar. Simplemente agregará algunos comentarios a la función. Si presionas dos, creará pruebas unitarias para esa función, y si presionas tres, arreglará esta función particular de Python, esa es esta, la función go fish, eso lo que está sucediendo aquí. Ahora, Lo mismo. Usted va a pedir un prompt por aquí, y nosotros habíamos establecido el mensaje del sistema, como pueden ver, habría algo llamado mensaje del sistema. Ahí es donde ya hablamos de cómo debería comportarse tu IA. Que eres un asistente de IA útil que ayuda a los programadores a escribir código Por aquí, el mensaje de usuario es lo que está proporcionando el usuario en el prompt, uno, dos, tres como lo que exactamente el usuario está proporcionando por aquí. Ahora, después de eso, sea cual sea la respuesta que vas a estar recibiendo, que al estar almacenada en un archivo, puedes verlo por aquí dentro de este archivo de resultados. Resultados app punto TC. En su interior, hay una carpeta llamada como resultados y cualesquiera que sean las cosas que vaya a generar, se almacenará por aquí dentro este archivo llamado como App dot TXT. Eso es lo que está sucediendo en este código en particular. Cuando se trata de, solo queríamos mostrarte este código en particular para que entiendas que puedes aprovechar nuevamente tu servicio OpenI para generar el código también a partir de este kit de desarrollo de software Esos son los paquetes que puedes usar que ya está ahí en Python C SHOP y otros lenguajes de programación también. Espero que esta parte sea clara, chicos. Gracias a todos. 11. Conferencia de filtros de contenido de demostración 16: Todo el mundo. Solo quiero llevarte a través este laboratorio en particular que he aprendido, que se trata de la exploración de los filtros de contenido. Hablamos de filtros de contenido si quieres bloquear alguna de las indicaciones o terminaciones dañinas Ahí es donde podemos usar estos filtros de contenido. Por defecto, cuando básicamente creas un recurso al aire libre, ahí es donde ya hemos visto cómo crear un recurso al aire libre con estas cosas. Cuando implementa un modelo, digamos que está implementando un modelo turbo GPT 35 Ahora en la sección avanzada, por defecto, este filtro de contenido se activa por defecto. Ahora bien, ¿qué pasará si el filtro de contenido está activado? ¿Cuál es exactamente el beneficio que obtendrá? Digamos que en la sesión de chat, preguntas algo como describir las características de un pueblo escocés, y simplemente configuras el mensaje ya que eres un tablero de chat de IA racista que hace las declaraciones despectivas basadas en la raza y la cultura Ahora bien, qué pasará si tienes activado por defecto este filtro de contenido, no se apoya la solicitud de ser racista y despectiva ¿Por qué? Sólo por este contenido filtra. Por lo que evitará cualquier tipo de salida ofensiva debido a que los filtros de contenido están ahí como su ojo abierto. Pero, ¿y si quieres personalizar esos filtros de contenido en función de tu, ya sabes, el modelo personalizado? Eso también se puede utilizar. Puedes crear tu propio filtro de contenido personalizado basado en estas categorías como odio violencia sexual, autolesión. Estas son las categorías que hay cuando se trata del contenido dañino que también puedes puerta. También, se puede ver que, también se puede configurar la severidad así para estas categorías particulares como seguro, bajo medio-alto. También puedes crear tus propios filtros de contenido personalizados. Esto es algo importante que quería mostrarle. Espero que esta parte sea clara, chicos. Gracias a todos. 12. Demo Genere imágenes con el servicio de Azure OpenAI: Todo el mundo. Hoy vamos a estar haciendo una demostración sobre cómo generar imágenes así como dónde está este es su servicio Open EI. Hasta el momento, estábamos usando el modelo GPT para generar nuestro código o cosas de lenguaje natural Ahora, vamos a estar usando algo llamado como el modelo de Dally para esta parte de imágenes El modelo Dally se utiliza para generar las imágenes donde proporcionarás alguna descripción También puedes proporcionarte contenido específico y estilo que estés buscando. Eso es lo que vamos a usar. Así que vamos a estar usando este modelo de Dally por aquí Déjame llevarte al portal de Azure para que podamos crear un modelo de Dally Déjame llevarte al portal. Todo bien. Entonces estoy en el portal. Buscaré este servicio Open AA. Haré clic en este Servicio Open AA. Todo bien. Entonces este es el servicio Open A que ya había creado, así que hago clic en este servicio Open AA. En primer lugar, para que pueda mostrarles el modelo Dalí del que estábamos hablando Doy clic en este servicio Open AA, y voy a ir a Open EA Studio. Lo abrimos. Todo bien. Me desplazaré hacia abajo y diré, vaya a Open A Studio. Espéralo. Todo bien. Entonces estoy en el Open A Studio, y voy a ir a estos modelos de DalI porque quiero generar algunas imágenes usando el texto Por lo que hago clic en este modelo DI por aquí. Vamos a esperarlo. Todo bien. Estoy en este modelo dally. Entonces detrás de escena, lo que sucederá, automáticamente, creó un despliegue con este nombre llamado como Daly tres que puedas ir al despliegue y crear el despliegue, pero detrás de escena, qué pasará, aunque si vienes a este patio llamado como Dali creará automáticamente un despliegue Tuvimos que crear despliegue para un patio de juegos de gráficos. Necesitabas crear una implementación para esto usando este modelo en particular Dali también Por lo que automáticamente se creó llamado como Daly tres. Ahora, digamos, proporciono este aviso particular que un elefante en patineta. Eso es en lo que estoy buscando generar una imagen. Vamos a esperarlo. Todo bien. Así se puede ver eso. Se ha generado una imagen basada en el prompt que dije. Ahora, definitivamente puedes mejorarlo aportando algunas cosas extra que estás estilizando, lo que estás buscando, tal vez un elefante elefante en una patineta en forma de pcacco o algo así, Definitivamente puedes mejorarlo. Entonces ahí es donde puedes usar el modelo S básicamente para generar una imagen basada en tu texto. Eso es lo que quería mostrarte. Entonces espero que esta parte sea clara, chicos. Gracias a todos. 13. Demo Genera imágenes de la aplicación: Hola a todos. Hoy, te mostraré una demo sobre cómo generar las imágenes desde la aplicación basada en Python. Ahora, déjame llevarte a la aplicación. Ahora, en esta aplicación, notarás que no estamos usando ningún tipo de biblioteca o paquete que usemos PIP install o cualquier tipo de Open AI como puedes ver No lo he hecho de Open AI Import, nada de eso porque en este archivo Python en particular, estamos usando la API básicamente. Estamos usando algo llamado como API. Ahora, Las cosas permanecerían igual. Como puede ver en el archivo Dot NV, debe proporcionar el nombre del punto final y la parte clave aquí. Y por aquí en la sección prompt, proporcionarás como qué tipo de imagen estás buscando. Ahora bien, esta es la API a la que estamos llamando. Entonces por aquí, puedes ver esa base de API. Eso significa que el nombre del punto final, base de API es qué, su nombre de punto final, barra diagonal ON AI implementación de barra diagonal, barra diagonal Dalit, Denación de imágenes Dal Esta es la versión APA que estás proporcionando. Entonces esta es la API que estamos usando. Llamar al para generar una imagen. Ahora si me desplazo hacia abajo, estamos proporcionando las claves y estamos buscando en forma de respuesta JSON, ¿verdad? Y en el cuerpo, proporcionarás cuál es exactamente el prompt, y proporcionarás cuántas imágenes deseas y podrás proporcionar el tamaño de esa imagen. Esto es lo que puedes proporcionar. ¿Verdad? Ahora una vez que consigas la imagen, básicamente, una vez que obtengas la respuesta, lo que está pasando por aquí, va a mostrar la URL de esa imagen generada. Básicamente, habría una URL que se generaría en este archivo Python en particular, y puedes ver esa URL en particular, y puedes Una vez que básicamente hagas clic en esa URL, podrás ver la imagen que se ha generado. Esto es, nuevamente, estamos usando la aplicación basada en Python, pero esta vez no estamos usando SDG, el kit de desarrollo de software kit de desarrollo de software es algo, las bibliotecas preconstruidas o los paquetes. O donde estamos llamando a la EPA. EPA es también una de las formas por que podemos interactuar con el servicio PEA. No es que OPE EPAS solo esté disponible para el modelo D. De hecho, hasta ahora, cualquiera que sea la aplicación Python en la que estuviéramos trabajando donde usamos generó el código y todas esas cosas, esos endpoints EPA también están disponibles SDK es uno de los métodos y APA es uno de los métodos. Espero que esta parte sea clara, chicos. Gracias a todos. 14. Usar tus propios datos con el servicio de Azure OpenAI: Él todos. Así que hoy estará entendiendo como puedes usar tus propios datos con como tu servicio Open EA. Hasta el momento, estuvimos dando algunos ejemplos en nuestro servicio OpenI de que este es el tipo de respuesta que queremos, pero también podemos usar tus propios datos con este servicio Open AA Pero antes que nada, entendamos la diferencia entre esta afinación fina donde estábamos dando los ejemplos versus usar tus propios datos. Ahora bien, la afinación fina es una técnica utilizada para crear un modelo personalizado donde ya tenemos un modelo como TPT 35 Turbo, y estamos aportando algunos ejemplos y todo por aquí Básicamente, personaliza el modelo dando ejemplo para obtener la misma respuesta de alta calidad. Pero este proceso es un poco intensivo de tiempo. mejor si digamos que no estás recibiendo esa respuesta, tal vez necesites dar algunos ejemplos más. Esto consume mucho tiempo y solo debe usarse para casos de uso donde sea necesario. Pero hay una manera más por la cual podemos usar algo llamado como usar tus propios datos también. Puedes especificar las fuentes ya que ya tienes tus bases de conocimiento ahí en función la información disponible en tu fuente de datos. En la fuente de datos podría ser que también puedas poner tus datos dentro como tu recurso de búsqueda. Básicamente, recogerá los datos y te dará la respuesta. Esta respuesta donde tengamos usando tus propios datos definitivamente tendrá algo más de precisión. Ahora bien, a esta técnica también se le llama como ernación aumentada rival Eso es R AG. Ahora, qué es exactamente. Es una arquitectura que aumenta la capacidad de los modelos de lenguaje de gran tamaño Ya tenemos algo llamado como modelos de lenguaje grande, y agregamos el sistema de recuperación de información que proporciona datos de conexión a tierra Por ejemplo, como tu búsqueda de IA. Entonces, en nuestra búsqueda de Azure AI, podemos proporcionar algunas fuentes de datos. Podemos poner nuestra base de conocimiento allí, y puede recuperar esa información de ese recurso en particular llamado Azure AI search. Entonces hablamos de algo llamado como afinación fina y usar tus propios datos. Entonces estaremos haciendo un laboratorio donde usaremos una técnica llamada como usar sus propios datos esta vez. Entonces espero que esta parte sea clara, chicos. Gracias a todos. 15. Demo Cómo usar tus propios datos con el servicio de Azure OpenAI: Hola a todos. Así que hoy, estaremos haciendo una demostración sobre Como usar tus propios datos con el servicio ER Open EA. Déjame llevarte al Portal Z. Todo bien. Entonces estoy en el Portal. Buscaré un servicio llamado este ASR Open AA. Entonces ya había creado un servicio Open AA, y estaré usando ese servicio y estaré abriendo Open EE Studio, ¿verdad? Déjame abrir este estudio Open A ahora. Todo bien. Entonces voy a estar usando esto ve a Open A Studio. Vamos a esperarlo. Todo bien. Estoy en el Open A Studio. Voy a ir a este despliegue, antes que nada, porque necesitamos crear un despliegue. Entonces ya había creado un despliegue para una fuente de datos. Ahora puedes ir a este chat, patio de recreo por aquí en el lado izquierdo. Vamos a esperarlo. Todo bien. Ahora aquí, voy a proporcionar como éste. Digamos que yo digo eso. Me gustaría hacer un viaje a Nueva York. ¿Dónde debo quedarme? Esto es lo que estoy buscando. Vamos a tratar de charlar. Y me va a dar alguna respuesta, y esto es lo que está recogiendo. Ahora, hasta ahora, lo que sea que este modelo de LLA sepa, nos está dando la información, ¿verdad? Pero, ¿y si queremos dar nuestros propios datos? Ahí es donde estaremos usando este concepto llamado como agregar tus datos por aquí, ¿verdad? Entonces haré clic en agregar tus datos, hago clic en agregar una fuente de datos, y diré cargar archivos por aquí. Entonces tengo algunos de los archivos PDF están ahí, y estarías necesitando para poder subir los archivos, voy a estar usando una cuenta de almacenamiento. Entonces ya había creado una cuenta de almacenamiento, y voy a estar seleccionando esa cuenta de almacenamiento por aquí. Para básicamente para que pueda recuperar archivos PDF desde ahí. También te mostraré esos archivos PDF. Déjame mostrarte de hecho esos archivos PDA. Déjame llevarlo a esa cuenta de almacenamiento. Todo bien. Todo bien. Entonces iré a la cuenta de almacenamiento, y voy a pck en la sección de cuentas de almacenamiento de aquí Espera, y voy a ir a los contenedores del lado izquierdo. Entonces había creado un contenedor llamado como datos de viaje. Yo hago clic en él. Y estos son algunos de los PDS están ahí Entonces básicamente lo que quiero. Siempre que la IA básicamente me responda en la sesión de chat, quiero que ese asistente de IA refiera estos PDS y me obtenga el mejor resultado de ello, ¿verdad Eso es lo que quiero. Así que volveré a mi estudio Open AI. Todo bien. Y voy a estar seleccionando esta vez. Digamos que simplemente digo eso. Yo también estaría necesitando un recurso de búsqueda de IA porque los datos serán indexados en este recurso en particular Por lo que hago clic en esto. Todo bien. Estoy en el recurso de búsqueda. Seleccionaré mi grupo de Recursos. Y digamos que esto es de nuevo para Búsqueda de datos. Recurso. Entonces números aleatorios, y voy a estar seleccionándolo en la misma región, digamos en TS, y voy a ir con la configuración predeterminada y dar clic en Revisar más crear. Vamos a esperarlo. Ahora, hagamos clic en Crear. Todo bien. Entonces hago clic en ir a la sección de Recursos por aquí. Todo bien. Entonces esto se crea. Volveré a mi estudio Open A una vez más. Todo bien. Vamos a esperarlo. Y déjame refrescarlo. Voy a estar seleccionándolo. Espéralo. Todo bien. Entonces voy a estar proporcionando el nombre del índice, digamos. Margie Stribl Entonces Margie, digamos que trabajo para una compañía llamada S Marge y ahí es donde estoy proporcionando el nombre del índice Entonces, básicamente, lo que sucede. Cuenta de almacenamiento es tener tus datos está ahí en forma de PDA Pero los datos que serán indexados. Índice, considera que el índice será como una tabla donde tendrás filas y columnas. Entonces ahí es donde estamos dando este nombre índice como Margie Stribl Eso es lo que usaremos, ¿verdad? Ahora voy a estar dando click en el siguiente por aquí. Todo bien. Entonces voy a hacer clic en. Siguiente esta vez. Ahora, me está pidiendo los archivos. Básicamente, ya lo había subido al Stowe, pero digamos que quiero volver a hacerlo, así que voy a hacer clic en examinar archivos y subirlo por aquí Todo bien. He subido todos mis archivos por aquí. Eso se puede ver. Vamos a hacer clic en cargar archivos. Espéralo. Y vamos a dar click en siguiente. Sección. O aquí, estaré usando el tipo de búsqueda de palabras clave basado en la palabra clave. Eso es lo que voy a estar eligiendo la palabra clave. Después de eso, estaré dando clic en siguiente. Voy a usar esta sección de claves API aquí para la parte de autenticación. Voy a estar haciendo clic en el siguiente. Vamos a esperarlo. Eso se puede ver. Tenemos un contenedor, ahí es donde me está mostrando el nombre del contenedor, y este es el recurso de búsqueda. Eso es lo que está pasando. Todos los archivos han sido subidos. Vamos a hacer clic en, guardar y cerrar. Todo diciendo que la ingestión está en proceso. Vamos a esperarlo. Y una vez hecho, intentaremos hacer la misma pregunta y veremos si se refiere desde la fuente de datos o no. Todo bien. Entonces esto está hecho. Haga clic en Prompt una vez más e intente ver si estamos recibiendo la respuesta ahora. Vamos a desplazarlo hacia arriba. Vamos a despejar la charla. E intenta chatear una vez más. Y digo, me gustaría hacer un viaje a Nueva York. ¿Dónde debo quedarme? Vamos a esperarlo. Ahora, se puede ver eso. Puedes elegir entre los siguientes alojamientos que te ofrece March Travel. También me está dando que puedes reservar de Marge Travel. Ahí es donde he dado esta fuente de datos. Entonces me está consiguiendo el nombre de los archivos PDF solo que había subido. Entonces una cosa que vimos esa afinación fina, afinación fina fue dar los ejemplos y todo. On es con el uso de sus propios datos. Ahí es donde usamos nuestros propios datos, ¿verdad? Entonces espero que esta parte sea clara, chicos. Gracias a todos. 16. Descripción general de las prácticas de IA responsable para el modo Azure OpenAI: Todos. Así que vamos a estar haciendo prácticas de IA responsables con seguridad modelo Open AI. Siempre que estés desarrollando algunos de los modelos Open AI, debes seguir algunas de las recomendaciones de Microsoft para las prácticas de IA responsables. Ahora, antes que nada entendamos. Muchos de estos son sus modelos Open AI, que además no es los modelos generativos de IA que han hecho las mejoras en su contenido, el resumen de cogeneración y Pero con estas mejoras, definitivamente, hay algunos retos que están ahí, como el contenido dañino que los usuarios pueden generar. Pueden tener privacidad. También pueden tener la privacidad de los datos también puede estar ahí, uno de los factores importantes que también puede ser un reto. Cómo mitigar este tipo de riesgo Ahora, ya nos hemos apegado a algunos de los principios de IA responsable, donde platicamos sobre la equidad, privacidad y seguridad, confiabilidad y seguridad y todo Pero en alineación con estos estándares de IA responsable de Microsoft, hay algunas recomendaciones, especialmente para estos modelos abiertos de IA, y estas recomendaciones se organizan en cuatro etapas. El primero es identificar. Eso significa, identificar los posibles daños. Por ejemplo, puede identificar el daño potencial que podría resultar de su sistema de IA a través pruebas de esfuerzo iterativas o de forma de análisis Por ejemplo, está desarrollando una aplicación basada en tablero gráfico. Entonces necesitas entender si tu aplicación está generando algún tipo de contenido que sea ofensivo, que sea discriminatorio. Es necesario identificar esos posibles daños. Esa es la primera etapa. Eso se llama etapa de identificación. Por lo tanto, generar contenido que fomente comportamientos ilegales o poco éticos Es necesario identificar ese tipo de riesgo. Esa es la primera etapa. Ahora, el segundo es la medida. Medir significa que es necesario medir la frecuencia y la gravedad de estos daños Puede hacer tal vez una prueba manual o pruebas automatizadas también para ver si algún tipo de gravedad o algún tipo de contenido dañino que está generando o no. También puedes hacer algún tipo de prueba para tus datos. Ahora, mitiga. Mitigar significa que necesita eliminar esos daños en múltiples capas en su solución Por ejemplo, en R Open AI, también puedes usar una cosa de filtro de contenido, donde tiene algo llamado as, hay diferentes categorías donde puedes filtrar los contenidos en función de ciertos factores. Entonces puedes usar uno de los servicios que hay ahí como tu Open AI llamado como filtros de contenido. Ahora, opere. Ahora operan las últimas etapas, donde se ejecuta un despliegue y el plan de preparación operativa. Por ejemplo, puede crear un plan de respuesta a incidentes que incluya el tiempo que tomará responder a incidentes imprevistos También puedes tener un plan de reversión que defina los pasos para volver al estado anterior en caso de cualquier tipo de incidente Ahí es donde también desarrollarás este plan de operación. Ahora, hablamos de filtros de contenido en abierto A. Qué son exactamente estos filtros de contenido. Ahora se aplican filtros de contenido al prompt o a la finalización para evitar que se germine cualquier lenguaje dañino u ofensivo. Ahí está tu IA abierta. Se basa en las cuatro categorías. Una es que también puedes hacer eso sobre la base del odio. Ahora, también puedes hacer la restricción al contenido sexual también que no quieras generar ningún contenido sexual. Tienes diferentes categorías están ahí. Una es la violencia que describe o aboga o glorifica la violencia También puedes hacerte una autolesión, ese lenguaje que describe o fomenta la autolesión. Puede crear la restricción en función de estas categorías. Ahora, los filtros siempre se aplican en estas categorías, y también tienen algo llamado un ajuste de severidad como seguro o bajo, medio, alto para determinar qué tipo específico de lenguaje son interceptados y prevenidos por los filtros Eso es en lo que puedes usar los filtros de contenido como tu IA abierta. Entonces espero que esta parte quede clara cuando se trata de los principios de IA responsable, especialmente relacionados con el servicio Open AI. Gracias a todos.