CURSO PROMPT Engineering para CHATGPT y otros modelos - Aprende las MEJORES prácticas - Nivel BÁSICO
Summary
TLDREl curso de 'brom engineering' o ingeniería de prompt para chat GPT se enfoca en mejorar la comunicación con herramientas de inteligencia artificial para obtener mejores resultados. Incluye una definición de chat GPT y los llamados LLM (Modelos de Lenguaje a Gran Escala), principios para una comunicación efectiva, y cómo iterar y mejorar prompts. Aborda las limitaciones, como las 'alucinaciones' de GPT, y cómo evitarlas. El curso también explora aplicaciones prácticas como la generación de resúmenes, inferencias y transformación de información. Se destaca la importancia de ser claro y específico, permitir tiempo para que el modelo 'piense', y entender las limitaciones de la tecnología. Finalmente, se motiva a los usuarios a explorar y utilizar chat GPT y otros LLM en diversos campos, recordando que estas son herramientas en desarrollo constante.
Takeaways
- 📘 Aprender a comunicarte mejor con herramientas de inteligencia artificial como chat GPT para obtener mejores resultados.
- 🔍 Comprender los principios clave de comunicación con modelos de lenguaje a gran escala (LLM): claridad y especificidad en las instrucciones.
- ⏳ Dar tiempo al modelo para procesar la información, evitando respuestas precipitadas que puedan ser incorrectas.
- 🚫 Conocer las limitaciones de chat GPT, como las 'alucinaciones', donde el modelo puede generar información falsa a partir de un contexto parcialmente verdadero.
- 🔄 Iterar sobre los prompts (consultas) para afinar las respuestas, ajustando la longitud, el enfoque y el formato según sea necesario.
- 📝 Conocer las mejores prácticas para resumir contenido, enfocando en la extensión deseada y los puntos clave a destacar.
- 🧐 Utilizar verbos distintos a 'resumir', como 'extraer' o 'sintetizar', para obtener diferentes perspectivas en los resúmenes.
- 🌐 Aprender a transformar información de diversas maneras, incluyendo traducción, cambio de tono, conversión de formatos y revisión ortográfica y gramatical.
- 💡 Entender que los LLM son herramientas valiosas con aplicaciones en múltiples campos, pero no son perfectas y requieren de un uso adecuado y consciente.
- 📈 Mantenerse actualizado sobre las mejores prácticas, limitaciones y fallas de las herramientas de inteligencia artificial para mejorar su uso.
- 🌟 Descubrir y explorar las múltiples aplicaciones de chat GPT más allá de lo cubierto en el curso para ampliar sus posibilidades.
Q & A
¿Qué es la ingeniería de prompt en el contexto de este curso?
-La ingeniería de prompt es el proceso de diseñar y mejorar las instrucciones o 'prompts' que se le dan a un modelo de lenguaje a gran escala (LLM), como Chat GPT, para obtener mejores resultados en la comunicación y la generación de texto.
¿Cuáles son los dos principios clave para comunicarse correctamente con un LLM?
-Los dos principios clave son: 1) Escribir instrucciones claras y específicas para guiar al modelo hacia el resultado deseado y reducir la posibilidad de respuestas incorrectas o irrelevantes. 2) Darle tiempo suficiente al modelo para 'thinking', es decir, procesar la información y generar una respuesta adecuada.
¿Cómo se puede mejorar la claridad en un prompt a través de delimitadores?
-Se pueden utilizar delimitadores como comillas dobles o cualquier otro símbolo que indique claramente las distintas partes del prompt, ayudando al modelo a entender qué parte del texto debe tomar en cuenta para completar la tarea.
¿Por qué es importante proporcionar un ejemplo de respuesta en un prompt?
-Proporcionar un ejemplo deseado de respuesta en un prompt ayuda al modelo a entender mejor la estructura y el estilo que se busca, lo que aumenta las posibilidades de obtener una respuesta precisa y esperada.
¿Qué es la 'alucinación' en un LLM y cómo se puede evitar o reducir?
-La 'alucinación' es una limitación en la que el modelo LLM puede generar información falsa basada en un contexto parcialmente verdadero. Para evitarlo, se debe pedirle al modelo que primero busque información relevante y luego responda basado en los datos encontrados.
¿Cómo se puede iterar sobre un prompt para mejorar los resultados?
-Al notar que el resultado no es el esperado, se toma el prompt, se modifica agregando o ajustando instrucciones específicas, y se prueba de nuevo hasta obtener el resultado deseado. Esto puede incluir ajustes en la extensión de la respuesta, el énfasis en ciertos puntos o el formato deseado.
¿Cuáles son algunas de las aplicaciones comunes de chat GPT que se mencionan en el curso?
-Algunas de las aplicaciones comunes incluyen la capacidad de resumir contenido, hacer inferencias sobre sentimientos o temas en un texto, y transformar información a través de traducción, cambios de tono, conversión de formatos y revisión ortográfica y gramatical.
¿Cómo afecta la 'alucinación' la generación de información falsa en un LLM?
-La 'alucinación' puede hacer que el LLM genere información falsa de manera convincente, ya que utiliza un contexto parcialmente verdadero para crear respuestas que parecen lógicas y plausibles, lo que puede ser peligroso si no se verifica la información.
¿Por qué es importante entender las limitaciones de un LLM como Chat GPT?
-Es importante entender las limitaciones de un LLM porque, aunque son herramientas poderosas, también pueden generar errores o información incorrecta. Conocer sus limitaciones ayuda a utilizarlas de manera más efectiva y a interpretar sus respuestas con escepticismo crítico.
¿Cómo se pueden utilizar verbos distintos a 'resumir' para obtener diferentes tipos de síntesis de un texto?
-Se pueden utilizar verbos como 'extraer', 'sintetizar', 'reduci', etc., para indicar al modelo que se busque una síntesis con enfoques ligeramente diferentes, lo que puede ayudar a obtener resultados más variados y adaptados a las necesidades específicas.
¿Por qué es recomendable darle al modelo LLM el tiempo necesario para 'thinking' antes de generar una respuesta?
-Darle tiempo al modelo permite que procese la información de manera más completa y estructurada, lo que lleva a respuestas más precisas y menos propensas a errores. Limitar el tiempo o las palabras puede resultar en respuestas superficiales o incorrectas.
¿Cómo se puede mejorar la precisión de una respuesta de Chat GPT al solicitar un resumen o síntesis de un texto?
-Se puede mejorar la precisión especificando la extensión deseada del resumen, los puntos o conceptos a destacar y utilizando verbos que indiquen claramente el tipo de síntesis que se busca, como 'extraer', 'sintetizar', en lugar de simplemente 'resumir'.
Outlines
😀 Introducción al curso de ingeniería de prompts para Chat GPT
Este primer párrafo introduce el curso de ingeniería de prompts para Chat GPT, enfocándose en cómo mejorar la comunicación con herramientas de inteligencia artificial para obtener mejores resultados. Define lo que es Chat GPT y los LLM (Modelos de Lenguaje a Gran Escala), y menciona que el curso abarcará principios de comunicación, limitaciones actuales, iteración de prompts y aplicaciones típicas. Destaca que el curso no es para desarrolladores sino para usuarios de diversas profesiones que buscan aprovechar la herramienta para resolver dudas o tareas específicas.
📝 La importancia de los buenos prompts
En este párrafo se discute la importancia de crear buenos prompts para obtener resultados deseados al interactuar con la inteligencia artificial. Se entiende que un prompt es una entrada de texto que guía al modelo a generar una respuesta específica. Se enfatiza que la claridad y especificidad en las instrucciones son cruciales para evitar respuestas incorrectas o irrelevantes. Se presentan tácticas como el uso de delimitadores, proporcionar estructura y estilo a la respuesta y permitir que el modelo verifique el cumplimiento de condiciones.
⏳ Dar tiempo al modelo para 'pensar'
Este párrafo aborda el segundo principio de comunicación con un LLM: dar tiempo suficiente al modelo para procesar la información y generar una respuesta adecuada. Se sugiere evitar que el modelo se precipite en la respuesta y se ofrecen tácticas como indicar pasos a seguir para estructurar el razonamiento y permitir que el modelo genere sus propios resultados antes de concluir si son correctos o no.
🔍 Limitaciones y mejoras a través de la iteración
Se reconoce una limitación conocida de los LLM llamada 'alucinaciones', donde el modelo puede generar información falsa basada en un contexto parcialmente verdadero. Para abordar esto y otros problemas, se sugiere iterar sobre un prompt, modificandolo para ajustar la extensión de la respuesta, el enfoque de la respuesta y el formato deseado. Se proporcionan ejemplos de cómo se pueden lograr estos ajustes.
🔄 Aplicaciones avanzadas con Chat GPT
Este párrafo explora diversas aplicaciones avanzadas de Chat GPT, incluyendo la inferencia de sentimientos, la identificación de la inclinación del autor, la obtención de resúmenes y la transformación de información. Se mencionan cuatro tipos de transformación de texto que Chat GPT puede realizar: traducción e identificación de idiomas, cambios de tono, conversión de formatos y revisión ortográfica y gramatical.
🎓 Conclusión del curso
Finalmente, se resume lo aprendido a lo largo del curso, destacando la naturaleza de los LLM y características específicas de Chat GPT, los principios clave para una comunicación eficaz, la limitación de las 'alucinaciones', la importancia de la iteración en prompts y las mejores prácticas para resúmenes y transformaciones de texto. Se recalca la responsabilidad de utilizar estas herramientas de manera informada y crítica, teniendo en cuenta que las respuestas no son necesariamente la verdad absoluta.
Mindmap
Keywords
💡Brom Engineering
💡Chat GPT
💡LLM (Modelo de Lenguaje a Gran Escala)
💡Prompt Engineering
💡Claridad y Especificidad
💡Alucinaciones
💡Iteración
💡Resúmenes y Síntesis
💡Inferencias
💡Transformación de Información
💡Limitaciones
Highlights
Bienvenidos al curso de 'brom engineering', donde aprenderemos a mejorar la comunicación con herramientas como Chat GPT.
El curso comienza con la definición de Chat GPT y los LLM (Modelos de Lenguaje a Gran Escala).
Se abordan principios clave para la comunicación efectiva con modelos de lenguaje, como claridad y especificidad.
Se destaca la importancia de iterar y mejorar los 'prompts' para obtener mejores resultados.
Se mencionan las limitaciones de los LLM, incluyendo la generación de 'alucinaciones' o información falsa.
Se ofrecen tácticas para evitar alucinaciones, como verificar la información antes de responder.
El curso no está destinado a desarrolladores sino a usuarios que buscan aprovechar la herramienta en diversas profesiones.
Se destaca que Chat GPT es un modelo de IA que utiliza algoritmos para analizar y generar texto.
Se describe cómo Chat GPT puede recordar el contexto de la conversación como un ser humano.
Se menciona el acceso abierto de Chat GPT y la disponibilidad de modelos gratuitos y de suscripción.
Se enfatiza la importancia de escribir buenos 'prompts' para obtener resultados precisos.
Se explica el concepto de 'prompt' en programación y su equivalencia en la comunicación con IA.
Se presentan estrategias para mejorar los 'prompts', como el uso de delimitadores y la especificación de estructuras y estilos.
Se discuten aplicaciones prácticas de Chat GPT, como resumir contenido, hacer inferencias y transformar información.
Se ofrecen spoilers del curso, incluyendo la estructura del contenido y lo que los estudiantes aprenderán.
Se destaca la capacidad de Chat GPT para generar respuestas detalladas y extensas, dependiendo de la complejidad del 'prompt'.
Se abordan técnicas para permitir que el modelo verifique el cumplimiento de condiciones antes de proporcionar una respuesta.
Se describe cómo darle tiempo al modelo para 'thinking' puede mejorar la calidad de las respuestas.
Se sugieren tácticas para estructurar el razonamiento del modelo y generar respuestas propias antes de concluir si algo es correcto.
Se concluye destacando la valiosidad de las herramientas como Chat GPT y la importancia de su correcta utilización y actualización.
Transcripts
[Música]
bienvenidos al curso de brom engineering
o ingeniería de prompt para chat gpt o
cualquier otro llm en este curso Vamos a
aprender a mejorar la forma en que nos
comunicamos con estas herramientas para
obtener mejores resultados
el contenido del curso va a iniciar con
la definición de lo que es chat gpt y
los llm en general
seguido de los principios que van a
regir una correcta comunicación con
estos modelos luego vamos a ver las
limitaciones a la que actualmente están
sujetos para seguir con cómo vamos a
poder iterar e ir mejorando nuestros
proms luego vamos a ver algunas de las
aplicaciones más típicas que podemos
utilizar con esta herramienta como
resumir contenido hacer inferencias y
transformar información para finalizar
con el resumen de todo lo que vimos mal
las conclusiones
spoiler del curso Este vídeo no está
pensado para los desarrolladores que
quieran ocupar la aprieta gpt ya sea
para crear aplicaciones o desarrollos
web este curso está pensado para los que
pueden aprovechar esta herramienta ya
sean estudiantes buscando ayuda para
resumir un texto profesores creando la
Pauta de corrección ingenieros tratando
de encontrar una solución a su problema
mecánicos tratando de encontrar la
posible falla de un vehículo cocineros
que están buscando la proporción
Perfecta de ingredientes para una receta
y cualquier otra profesión que se te
ocurra que pudiesen tener una duda
difícil de encontrar a través de un
buscador pero que pueden responder casi
al instante si saben plantear la
pregunta correcta
ahora partamos por lo básico que esta
gpt chat gpt es un large Mode o lllm por
sus siglas en inglés y en español lo
conocemos como un modelo de lenguaje a
gran escala esto es un modelo de
Inteligencia artificial que utiliza
algoritmos para analizar y generar texto
son capaces de entender patrones y
estructuras en grandes conjuntos de
texto y luego generar oraciones y
párrafos ellos mismos el caso de
chasquete Es una herramienta
desarrollada por Open I que tuvo acceso
a cientos de miles de documentos y
archivos en internet por lo que fue
entrenado con grandes cantidades de
información por harto tiempo
su interfaz hace que funcione como si
estuvieras chateando con un robot pero
están avanzado que parece un chat con
otra persona es capaz de recordar el
contexto de la conversación justamente
como si estuvieras chateando con alguien
más la herramienta Es de acceso abierto
es decir cualquier persona con internet
Puede acceder a él y además si bien
tiene un modelo de suscripción para sus
desarrollos más recientes como gpt 4 5 6
o en el que sea que vayan ahora que
estás viendo Este vídeo algunos modelos
aún son muy buenos y gratuitos
si eres de los pocos que aún no conoce
esta herramienta te dejo el link en la
descripción para que inicies chateando y
descubriendo las maravillas que tiene
para ofrecer lo único que hace falta es
hacerse un usuario creándolo o a través
de Google u otra plataforma Así que
pausa el video acceda al link y descubre
tú mismo de lo que estamos hablando
entonces tú que ya conoces este chat y
ya interactuaste con el va a pensar que
necesito aprender si solo es hablar con
un chat qué estoy ofreciendo en este
curso qué es lo que vas a aprender al
terminar este vídeo al finalizar este
video vas a haber aprendido todas las
mejores prácticas actuales de uso de un
modelo de lenguaje a gran escala vas a
saber las mejores estrategias para
lograr los resultados deseados las
respuestas basándonos en los dos
principios de este tipo de tecnología y
además vamos a ir aplicando todo lo que
aprendemos en Casos de uso de manera de
poder mejorar sustancialmente nuestros
proms y con eso las respuestas que
obtenemos
pero probablemente de nuevo te estás
preguntando para qué quiero saber todos
esos principios y estrategias si ya
hablé con gpt y ya le pregunté Cuál era
la capital de Francia y me respondió sin
problema le pregunté también En qué año
se peleó la Segunda Guerra Mundial y
también me respondió sin errores y para
responderte eso necesito que pensemos un
poco más allá y pensemos en plantearle
al chat preguntas mucho más complejas
para poder utilizar todo su potencial ya
sea estés pensando en un ámbito
literario en un ámbito matemático
histórico o cultural
paremos un segundo te he hablado todo el
rato de los famosos prompt y todavía no
te explico el concepto Pero tranquilo
que es súper sencillo en programación un
prompt es simplemente un input de texto
es decir cuando el usuario ingresa
información en este caso el Chrome es el
texto que creamos en el chat lo que le
escribimos a la Inteligencia artificial
es decir lo que ponemos acá y Por qué es
tan importante que sepamos escribir
buenos proms
te lo voy a explicar con un esquema un
buen prompt es igual a buenos resultados
y un mal prompt es igual a malos
resultados Así es simple
spoiler 2 del curso en algunos casos una
buena respuesta requiere muy detallado
ya lo que se traduce en un muy extenso
para ejemplificar lo que puedan ver la
ingeniería en acción les voy mostrando
Cómo van quedando Así que les pido
atención y paciencia y no se espanten
por la cantidad de texto que vamos a ver
tercer spoiler del vídeo yo no estoy
inventando la pólvora con este curso si
bien es algo que hace tiempo tenía ganas
de hacer enseñarles en base a mi
experiencia con el uso de esta
tecnología resulta que hace muy poco la
propia empresa de chat gpt Open ahí
lanzó un curso de ingeniering oficial y
en inglés obviamente lo tomé Entonces
ahora en base a mi experiencia y a lo
aprendido en este curso Es que quiero
disponibilizar este material tanto Para
quienes no sepan inglés como para
aquellos que quieren una guía más
concreta
últimos spoiler del vídeo les prometo
que sí
antes de iniciar les quería comentar que
con este vídeo no quiero hacer parecer
compleja una herramienta que no lo es
los creadores de chat gpt quisieron
crear una herramienta que
disponibilizara los beneficios de la
Inteligencia artificial para todos y se
esmeraron en hacer que cualquier persona
pudiese ocuparlo y resultó en un chat
muy amigable y fácil de entender
probablemente puedes obtener muy buenos
resultados simplemente con tu intuición
Y utilizando el sentido común al
comunicarte con estas herramientas pero
si quieres aprender de mejor manera cómo
expresar Cómo pedir lo que quieres y
entender también los errores que pueden
obtener los resultados y cómo evitarlos
Entonces este curso es para ti ahora sí
partamos Con los principios que rigen
las buenas prácticas
los principios que rigen las buenas
prácticas en la comunicación con un llm
y Por ende con Tech gpt son dos el
primero y el segundo fin
una broma para que no se queden dormidos
nomás el primer principio nos dice que
debemos escribir instrucciones claras Y
específicas entendamos Que claro no es
lo mismo que corto este principio no
habla de que debemos tener tanta
especificidad en nuestra instrucción
como sea posible logrando así guiar al
modelo el resultado deseado y reducir la
posibilidad de obtener respuestas
incorrectas o irrelevantes y cómo vamos
a lograr eso a través de varias tácticas
la primera táctica que vamos a utilizar
es usar delimitadores para indicar con
Claridad las distintas partes del prompt
veamos un ejemplo
fíjense la forma en que delimito las
partes de mi primero de una instrucción
de crear un resumen en una línea y le
indique el texto a resumir diciendo que
estaba dentro de comillas doble De qué
me sirve esto le estoy diciendo
claramente la parte de mi Chrome que
quiero que tome en cuenta al hacer el
resumen evitando ambigüedades
interpretaciones que podrían ocurrir si
le doy un prompt como este
fijémonos acá qué Creen ustedes qué es
lo que podría salir mal
miren
lo que editamos al usar delimitadores es
que el texto que entregamos para
realizar la tarea sea interpretado como
otra instrucción que podría interferir
en el resultado deseado volvamos al
anterior
qué es lo que obtuvimos como resultado
de este
veamos que efectivamente captó la
instrucción tal como lo planeamos y
realizó el resumen esperado o no
No si bien identificó el texto a resumir
no siguió nuestra instrucción de en una
sola línea y se les ocurre por qué
bueno la respuesta nos lleva a la
táctica dos para aplicar nuestro
principio de Claridad y especificidad
los proms que es indicar la estructura y
estilo de la respuesta dando ejemplos si
es posible en el ejemplo anterior el
problema es la ambigüedad del formato en
que pedimos la respuesta le pedimos que
el resumen fuera de una línea El
problema es que nuestro modelo no sabe
si es la línea que queremos es esta esta
o esta
qué podemos hacer entonces
simplemente utilizar formatos más
concretos
en caso de que estés buscando una
extensión de texto específica lo mejor
es guiarlo por la cantidad de palabras
si estás buscando un formato específico
como una lista de python un formato
Jason u otro lo mejor es mostrarle un
ejemplo en este caso además de la
instrucción y del texto le indicó un
ejemplo de cómo quiero la respuesta y
esto nos lleva a la respuesta 100%
correcta y esperada
nuevamente tuvimos un error le pedí
explícitamente las palabras que se
repitieran cuatro o más veces en el
texto pero como ya habrán visto incluyó
una que no cumple Esa condición y esto
nos lleva a nuestra Tercera y última
táctica para el principio de claridad
que es permitir que el modelo verifique
el cumplimiento de las condiciones ahora
en español qué quiere decir esto
lo que ocurre tradicionalmente es que
nosotros damos una instrucción nuestro
algoritmo detrás del chat genera la
respuesta y luego la muestra en pantalla
lo que debemos hacer es agregar un paso
adicional donde luego de generar la
respuesta le vamos a pedir que la
verifique si cumple las condiciones
solicitadas y luego va a responder en el
ejemplo anterior sería algo así
agregamos un párrafo donde le pedimos
revisar si se cumple la condición que
solicitamos y en caso contrario que
elimina los valores esto Ahora sí
resulta en una respuesta correcta
vamos ahora con el segundo principio y
nos dice que hay que dar el tiempo
necesario nuestro modelo para pensar Qué
significa esto puede que nuestro modelo
se precipite a entregarnos una respuesta
que puede llevar a resultados
incorrectos o bien puede ser que le
estemos poniendo por ejemplo un límite
de palabras que no permite desarrollar
una respuesta correcta y nos lleva a
malos resultados
estos resultados incorrectos nos llevan
a replantear el razonamiento de manera
de darle espacio suficiente al modelo
para que compute correctamente la
respuesta
Piénsalo Como si le pidieras al mejor
pintor del mundo hacer un retrato de
Jesús pero en 10 segundos
entonces la primera táctica que vamos a
utilizar para aplicar el principio de
darle tiempo necesario al modelo para
pensar va a ser indicar los pasos a
seguir para dar la respuesta
simplemente indicarle algo así una serie
de pasos para estructurar su
razonamiento como nosotros queremos y
así llegar a la respuesta que esperamos
en vez de pedirle algo así
pídele algo así
la segunda táctica de este principio es
indicar al modelo que genere sus propios
resultados antes de concluir si algo Es
correcto o no esta táctica es para casos
específicos donde le estamos preguntando
a chat gpt o nuestro Modelo lllm Si algo
Es correcto o no por ejemplo
supongamos que estamos haciendo labores
docentes y Queremos saber si la
respuesta de un estudiante a nuestro
ejercicio es correcta si quieres leer
este ejercicio en detalle pausa el video
pero lo importante es que sepas que la
respuesta que dio el estudiante es
incorrecta y sin embargo chat gpt no
respondió esto para evitar este tipo de
errores apliquemos la táctica de dejar
que el modelo genere sus propios
resultados antes con un prompt como este
indicándole explícitamente que primero
desarrolle una respuesta propia y luego
revise la respuesta del estudiante
logramos el siguiente resultado Esta vez
sí pudo identificar correctamente el
error del estudiante y que tenía una
respuesta incorrecta
ya conocimos Entonces los dos principios
y las tácticas para aplicarlos en tus
proms antes de seguir es súper
importante que mencionemos una
limitación que ya ha sido ampliamente
estudiada y reconocida antes incluso por
sus mismos desarrolladores y que incluso
puede llegar a ser un poco peligrosa y
es lo que han denominado como
alucinaciones te lo explico con un
ejemplo
le pregunté acerca de un modelo de
refrigerador que no existe acabo de
inventar el nombre pero el nombre de la
marca sí existe Es decir le pregunté por
contenido falso pero con algo de
contexto verdadero miren lo que
respondió fíjense todo el texto que
inventó se inventó un montón de
características Aquí les pongo una parte
de la respuesta pero incluso llegó a
hacerme recomendaciones de su uso y lo
planteó como una buena opción de compra
sin siquiera señalar en ningún momento
que todo esto se lo inventó de ahí el
potencial peligro que les comento que
podría presentar esta limitación
entonces muy importante que sepamos Cómo
evitar o Cómo podemos reducir las
alucinaciones de chaquete simplemente en
vez de preguntarle directamente sobre
algo primero hay que pedirle que busque
información relevante del tema y solo
entonces responder en base a lo que
encontró
ahora vamos a hablar de algunos casos
específicos en el uso de proms para
comunicarnos con chat gpt y cualquier
otro llm el primer caso que vamos a
tocar es la iteración sobre un prompt
qué es lo que quiere decir esto cuando
yo utilizo un Chrome y me doy cuenta que
el resultado no es el esperado una
aproximación es tomar el mismo y
modificarlo agregando la instrucciones
especiales de acuerdo a lo que queramos
Cuáles son los posibles problemas que
podemos solucionar iterando sobre un
prompt el primer problema que puede
presentarse Es que la extensión de la
respuesta no es la desea ya sea muy
larga o muy corta y como ya puedes
imaginar la solución es indicar la
extensión deseada en vez de este que
resulta en una respuesta tan larga que
no me cabe en la pantalla
tomar el mismo prompt y agregarle un
límite al largo de la respuesta
el segundo problema que podemos
solucionar iterando nuestro Chrome es
cuando la respuesta hace
énfasis en un punto que no queremos
la solución Es simplemente decirle
aquello que queremos destacar en la
respuesta
comparen el resultado del promp anterior
con este donde agregué el énfasis que
quería dar en la respuesta miren los
resultados
fíjense todo lo que agregó y cómo logra
interpretar perfectamente lo que pedí
y el tercer problema que podemos
solucionar iterando con nuestro mismo
Chrome Es que la respuesta no tiene el
formato deseado o queremos cambiar el
formato Y como ya te imaginarás la
solución Es simplemente pedirle otro
formato
por ejemplo el mismo anterior pero ahora
lo queremos en versos
el segundo caso que vamos a tratar es
que vamos a hablar específicamente de
Cómo obtener los mejores resúmenes y
síntesis a través de un prompt logrando
que el resultado se adecue lo más
posible a lo que queremos este punto
estamos relacionados con aplicar todo lo
que hemos visto hasta el momento que con
cosas nuevas Así que no vamos a ver
nuevos proms ni ejemplos de respuesta
simplemente les voy a contar que cuando
estén intentando obtener un resumen de
algún tema en particular se fijen en
primer lugar enseñarán la extensión del
resumen
con frases como con una extensión de o
con un máximo de en segundo lugar
idealmente indicar los puntos en los
cuales quisieran hacer énfasis con
frases como enfatizando en o destacando
en estos puntos y finalmente les quiero
comentar que también se pueden obtener
algunos resultados interesantes al
variar el verbo que utilizamos en el
prompt por ejemplo podrías Probar con
extraer sintetizar reducir en vez de
resumir
otra de las cosas que podemos realizar
con chat gbd y A mi parecer una de las
cosas más interesantes e impresionantes
es hacerlo inferir cosas logrando que
saque conclusiones a partir de un texto
dado podemos por ejemplo hacerlo inferir
Qué sentimientos se ven reflejados en un
texto
o preguntar acerca de la inclinación que
tuvo el autor de un artículo sea esta
positiva o negativa
o podríamos preguntar cuál es el tema
central de un texto pudiendo incluso
este texto ser un link a una noticia de
internet
y así llegamos a la última de las
aplicaciones que vamos a revisar que
pueden realizar con chat gpt y que es
transformar la información en este curso
vamos a mencionar solo cuatro tipos de
transformación pero lo insto a probar Y
averiguar todas las que se le ocurren
la primera que vamos a revisar es
probablemente una de las que se te
vinieron a la cabeza y es la traducción
está entrenado con fuentes de muchos
idiomas y esto le dio la habilidad al
modelo de generar traducciones muy
exactas esto lo puede utilizar tanto
para directamente realizar traducciones
como para identificar el idioma de un
texto o una palabra
en segundo lugar tenemos una de mis
favoritas y también muy útiles en el
entorno laboral y se trata de los
cambios de tonos logrando cambiar la
manera en que se plantea el texto
dependiendo de la audiencia a la cual
queramos enfocarlo
otra aplicación importante dentro de las
transformaciones que podemos realizar es
la conversión de formatos como ya hemos
visto en algunos ejemplos chat gpt es
capaz de realizar conversión entre
formatos y entendiendo formato en el
sentido más amplio que se te ocurra esto
puede ocurrir en un entorno de
programación de escritura de matemáticas
u otro
y finalmente la última aplicación que
está dentro del alcance de este curso
pero que como te dije no es la última
que vas a encontrar es la revisión de
ortografía y gramática de los textos muy
útil también y que puede ahorrar
bastante tiempo
qué es lo que aprendimos en este curso
qué es lo que vimos en este vídeo en
primer lugar aprendimos algunos datos
generales de lo que es un lllm un modelo
de lenguaje a gran escala luego
aprendimos algunas de las
características más importantes de chat
gpt como que es abierto y gratuito que
tiene una interfaz de tipo chat y que es
capaz de acceder a información en
distintos formatos incluso a algunos
artículos de internet a través de links
aprendimos también acerca de sus
principios como lo eran ser siempre lo
más claro y específico posible y también
darle el espacio y tiempo suficiente al
algoritmo para que genere una respuesta
que se adecue a nuestra solicitudes
aprendimos acerca de la limitación que
tiene chat gpt que se denomina
alucinación y que hace que en ocasiones
dado un input que tiene algo de contexto
verdadero puede hacer que chat gpt
genere información falsa que
peligrosamente es difícil de notar luego
aprendimos acerca de cómo ir iterando y
modificando un mismo Trump para obtener
resultados que más se inclinen por lo
que quiero lograr identificando tres
casos principales que se pueden
presentar uno de ellos cuando la
respuesta a nuestro no cumplía la
extensión que queríamos donde lo mejor
es agregar explícitamente el largo de la
respuesta preferentemente en palabras
otro caso cuando la respuesta tiene un
enfoque distinto al que se quería en
cuyo caso hay que indicar los puntos en
los cuales se quiere hacer énfasis y el
último caso cuando la respuesta no está
en el formato deseado debiendo
simplemente indicar el nuevo formato
luego de las iteraciones pasamos a
conocer algunas de las mejores prácticas
para resumir contenido que eran siempre
explicitar en el prompt dos elementos
que eran la extensión deseada y los
temas o conceptos en los cuales hacer
énfasis en el resumen y además ocupar
algunas técnicas como utilizar verbos
distintos a resumir como extraer o
sintetizar para probar resultados
distintos y finalmente aprendimos como
chat gpt y otros llms o modelos de
lenguaje a gran escala pueden ayudarnos
a transformar el texto de cuatro maneras
en primer lugar a través de la
Traducción e identificación de idiomas
ya sea de texto o palabras en segundo
lugar los cambios de tonos Como por
ejemplo el cambio del tono de un texto
informal a uno formal luego la
conversión de formatos y en último lugar
la revisión ortográfica y gramatical
y todo esto nos lleva a concluir que
chat gpd y los lllms en general son
herramientas muy valiosas y con
aplicaciones en un sinfín de Campos
el esfuerzo de los creadores por
disponibilizar para todo la Inteligencia
artificial nos trajo un tiempo en que
las herramientas como test son muy
amigables y con la cual solo con un
conocimiento muy básico de cómo chatear
por ejemplo más del sentido común
cualquier persona puede obtener
resultados buenos
sin embargo también es sumamente valioso
entender Cómo comunicarse de mejor
manera y lograr identificar las
limitaciones y el origen de los errores
de estas herramientas porque como ya lo
vimos tampoco son perfectas hay que
tener claro que esta es una tecnología
que está en constante desarrollo y es
importante tratar de mantenerse
actualizado en todos los puntos que
vimos en el curso ya sean las mejores
prácticas de comunicación el alcance de
esta herramienta sus limitaciones y las
fallas que suele presentar es de
responsabilidad personal darle un
correcto uso a esta herramienta
entendiendo que las respuestas que
obtenemos de ella no son necesariamente
una verdad absoluta por lo que es un
deber asumir que puede haber errores y
finalmente Los invito a utilizar esta
herramienta y a descubrir todas las
cosas que pueden hacer con ella que sin
duda son muchas más de las que vimos en
este curso
Ver Más Videos Relacionados
Cómo usar ChatGPT (Control total) 🎯 CURSO completo PASO a PASO
¿Qué es un prompt en los sistemas de Inteligencia Artificial?
Cómo EMBEBER UN GPT en una página WEB [Tutorial paso a paso]
Mi Presentación del curso Estrategias de IA
Practical AI for Instructors and Students Part 2: Large Language Models (LLMs)
7 herramientas de Inteligencia Artificial para crecer tu negocio
5.0 / 5 (0 votes)