Vale, aclarado qué son las IAs de Diálogo, pasemos a ver cómo funciona el prompting en IAs de Diálogo.
Cabe decir, antes de empezar, que, a diferencia de lo que sucede con las IAs de Imágenes, donde cada una es de su padre y de su madre, con las IAs de Diálogo tenemos siempre la misma forma de promptear (o casi).
Es decir, hay poca diferencia entre usar ChatGPT o BingBot y habrá poca diferencia al usar Bard u OpenAssistant.
Los prompts nos servirán para todas, porque los modelos se entrenan igual y los datos de entrenamiento también son muy similares en contenido y estructura. Puede haber diferencias, sí, pero mínimas.
Difícilmente un conjunto de prompts útiles en ChatGPT no lo sea en Bing y, aunque pueda haber margen de optimización al pasar de una IA de Diálogo a otra, la iteración hasta dar con el prompt idóneo será fácil y rápida.
Así que, aunque, de momento (en el momento de escribir estas líneas), sólo haya un par de IAs de Diálogo destacables, lo que aprenderás aquí será válido para todas las que vayan apareciendo en los próximos meses.
Aclarado esto, vamos con cómo escribir buenos prompts para IAs de Diálogo.
Más de 3000 orangotanes ya reciben mis emails
Suscríbete a la Niusleta de Joseo20.
Yo sí mando spam. Cuando tengo que vender, vendo. El resto de tiempo envío emails con temas que considero interesantes.
Hablo de todo lo que me sale de los cojones, no sólo de marketing o negocios. Hay política, filosofía y otras gilipolleces.
Es probable que después de leerla me odies.
Incluye orangotanes.
Se mantiene lo básico del prompting en IAs de Texto
Los tipos de prompting y la estructura básica se mantiene respecto a las IAs de Texto.
Lógico, ¿no? Una IA de Diálogo es una IA de Texto reentrenada para tener conversaciones. Pero no deja de ser una IA de Texto.
Así que todo lo que viste en el módulo anterior sobre Tipos de Prompting, Estructura Básica del Prompt y casi todo lo de Trucos en Prompting se aplica a las IAs de Diálogo.
No vamos a repetir todo aquello aquí. Si no lo has leído aún, ve y luego vuelve.
Ahora, vamos a ver algunas particularidades de los prompts en las IAs de Diálogo.
Prompts secuenciales
Lo primero que debes comprender es que, como ya hemos comentado, todos tus prompts incluirán toda la información anterior de la conversación (ya sea al 100% o con una selección de los elementos más representativos).
Siento repetirme, pero es importante, porque, en las IAs de diálogo, tenemos que ser capaces de dividir nuestro objetivo en varios prompts. Puedes pensarlo como una concatenación de prompts y peticiones a GPT-3.
Por eso hablo de prompts secuenciales.
De hecho, para ser un buen Prompt Engineer en IAs de Diálogo, deberás saber no sólo cómo escribir buenos prompts, sino también cómo diseñar buenas secuencias de prompts.
Por ejemplo, si quieres obtener una tabla comparativa entre las ideas de dos libros, no es buena idea ir directamente a ello en un único prompt. Es mejor dividir el proceso en varios prompts sucesivos (aportando a la IA la información necesaria), tal y como ves en este diagrama:
El proceso descrito en el diagrama podría ser más largo y completo. Se podría incluir un paso en el que se especificase cuáles son los puntos en común entre ambos libros, por ejemplo. Se podría generar un último texto explicando las diferencias entre ambos libros a partir de la tabla… En fin, mil cosas.
La cuestión es que, si tienes un objetivo claro, debes dividir el proceso en varios pasos y tener un prompt para cada paso.
Si lo único que quieres es curiosear, pues ve charlando normalmente con la IA. Pero, si tienes un objetivo, usa prompts de forma inteligente y paso a paso.
Resumiendo: El Prompt Engineer, en el área de las IAs de Diálogo, debe ser capaz de diseñar cadenas de prompts para obtener los resultados deseados. Y, por supuesto, deberá optimizar cada uno de esos prompts concretos.
El Prompt Engineer, en el área de las IAs de Diálogo, antes de abrir ChatGPT, coge papel y boli y dibuja el flujo de prompts que va a utilizar para obtener el resultado deseado.
¿Recuerdas la analogía con el bizcocho en el horno?
El Prompt Engineer, al tratar con IAs de Diálogo, debe crear moldes con algunas partes abiertas para que la IA dé respuesta y se extienda. Y debe prever cómo se va a extender (más o menos) por esa parte abierta del molde. Debe tener un siguiente molde para constreñir esa parte del bizcocho que ha crecido “como ha querido”, y así sucesivamente.
De esta forma, el bizcocho final puede tener una forma mucho más compleja (pero controlada) que con una IA de Texto.
Las IAs de Diálogo tienen dependencia del camino
Precisamente por esta naturaleza secuencial de los prompts y las respuestas y porque las IAs de Diálogo van a pasar toda la conversación como input en cada interacción, las IAs tienen una fuerte dependencia del camino.
Si empiezas una conversación hablando de un tema y luego cambias de tema, es probable que la IA genere texto coherente con el primer tema que trataste.
¡Cuidado!
Puede parecer que está cambiando de tema bien. Y, si eres lo suficientemente claro en el prompt concreto con el que cambias de tema, puedes hacer que ignore toda la conversación hasta el momento y se ponga a hablar como si empezase desde cero.
Pero no es así realmente.
Tiene en la recámara la conversación anterior y los siguientes textos que genere estarán condicionados por lo anterior.
Si esto sucede incluso dándole una instrucción tan clara y con un elemento tan obvio como es una función explicada al inicio de la conversación con un formato específico, imagínate lo que puede pasar si estás charlando sobre la vida y la muerte y luego le dices “bueno, ahora cambiemos de tema: Ayúdame a generar unas ideas de negocio”.
¡Quizá te recomienda montar una funeraria!
Obviamente, estoy exagerando. Pero sí es cierto que la segunda conversación se verá afectada por la primera, aunque a simple vista no lo parezca.
Porque es una máquina de generar tokens a partir de los anteriores y no borra ni ignora los tokens de una primera charla cuando le dices que quieres cambiar de tema. Así que NECESARIAMENTE los tokens de la primera charla se tendrán en cuenta para la segunda.
De aquí se deducen dos cosas:
La primera es que, si quieres cambiar de tema radicalmente (por ejemplo, porque ya has terminado un trabajo), lo mejor es que inicies una conversación completamente nueva.
La segunda es que debes tener un buen control de lo que la IA va generando a lo largo de la conversación para no sesgar, meter ruido o envenenar los subsiguientes prompts.
Por ejemplo, si la IA alucina, debes corregir pronto esa alucinación para que no la aumente en los siguientes pasos de la conversación. Si mete información innecesaria, debes decirle que la ignore y se centre en la importante. Y así con todo.
A menudo, de hecho, conviene no corregir vía prompt un error o alucinación de la IA sino editar el prompt para hacerlo más restrictivo. Lo veremos en el apartado de Trucos de Prompting en IAs de Diálogo.
Más de 3000 orangotanes ya reciben mis emails
Suscríbete a la Niusleta de Joseo20.
Yo sí mando spam. Cuando tengo que vender, vendo. El resto de tiempo envío emails con temas que considero interesantes.
Hablo de todo lo que me sale de los cojones, no sólo de marketing o negocios. Hay política, filosofía y otras gilipolleces.
Es probable que después de leerla me odies.
Incluye orangotanes.
Diseño básico de una buena secuencia de prompts en IAs de Diálogo
Aclarado todo lo anterior, veamos un ejemplo de una buena estructura de prompts secuenciales con el objetivo de cumplir una tarea concreta:
Conseguir una carta de presentación para @javilop, hablándole de una idea de negocio con Midjourney que se ajusta perfectamente a nuestro perfil de emprendedor (a pesar de no tener ni puta idea de qué hacer con Midjourney de primeras), con el objetivo de que invierta en nuestra empresa.
Te propongo esta secuencia básica (puedes modificarla para adaptarla más o menos a tus necesidades, pero no te recomiendo alejarte muchísimo de sus puntos principales):
- Establecimiento de capacidades (en otra conversación).
- Asignación de rol (en este punto, indicamos a la IA cómo queremos que se comporte).
- Presentación de información de fondo (si es necesario).
- Presentación de la información contextual (donde introducimos la información y los datos que queremos manipular para realizar nuestro trabajo con su ayuda).
- Comprobación de contexto (donde comprobamos que la IA está recordando todo correctamente -este paso puede aparecer en múltiples posiciones)
- Manipulación de los datos (donde realizamos las diferentes manipulaciones de datos hasta alcanzar el resultado deseado).
- Generación del output (donde obtenemos el output final. En nuestro caso, la carta de presentación, todavía no optimizada para el inversor particular al que nos enfocamos)
Establecimiento de capacidades
Lo primero que tenemos que hacer es establecer las capacidades del modelo, porque, quizá, no nos pueda ayudar utilizando sólo la información de su set de entrenamiento.
Por ejemplo, en nuestro caso, queremos usar Midjourney en el proyecto que vamos a montar… ¡Pero Midjourney salió después de la fecha de corte de datos de ChatGPT! Así que no sabe qué es Midjourney y, si le preguntamos del tirón por él, va a empezar a alucinar.
Yo ya sé que no conoce Midjourney, pero es buena idea mostrártelo para que el ejemplo salga completito.
Si no sabes si ChatGPT conoce o no el tema que vas a abordar, acláralo antes de empezar. Si sabes que SÍ lo sabes, puedes saltarte este paso. Si sabes que NO lo sabe, también puedes saltártelo. Este paso úsalo sólo cuando tengas dudas.
Y hazlo en una conversación diferente para no contaminar la conversación donde vas a desarrollar el trabajo como tal (y para no comerte tokens innecesariamente).
En mi caso, ya que estoy, aprovecho para pedirle un favorcillo extra que nos vendrá bien después:
Asignación de rol
Tu prompt inicial es muy importante.
Ya habrás llegado a esa conclusión si has interiorizado todo lo anterior.
Además, como verás más adelante, las IAs de Diálogo tienen varios casos de uso muy potentes (bueno, verás algunos Casos de Uso más adelante, pero tú también puedes crear y descubrir los tuyos propios, claro).
El asunto es que, para explotar al máximo esos casos de uso, debemos tener claro lo que queremos, enfocar a la IA en esa dirección desde el principio y mantener esa dirección a lo largo de la conversación.
Por tanto, debemos crear muy buenos prompts iniciales, con especial hincapié en el primero, y enfocarlo a la potencialidad de la IA que queremos explotar (reformatear información, aprender sobre un tema o lo que sea).
En este primer prompt lo que haremos será setear a la IA para que esté bien dirigida hacia el objetivo que deseamos, aunque por el camino haya múltiples pasos intermedios.
¿Y cuál es la mejor forma de setear a la IA?
Pues aplicando un rol.
Por ejemplo, si quieres aprender sobre física, asígnale el rol de Einstein. Si quieres que te ayude a elegir la mejor empresa en la que invertir entre una lista que tienes, asígnale el rol de Warren Buffett.
En este primer prompt lo que queremos es que interiorice una personalidad, porque toda la conversación siguiente se verá afectada por ella (y eso es, precisamente, lo que queremos).
En nuestro caso, vamos a apostar por un coach especializado en emprendimiento con background técnico:
Como ves, en este caso no he utilizado la personalidad de una persona real, sino que he apostado por una personalidad genérica. Vale igual. Ambas opciones nos servirán.
Lo importante es que seas específico y “pesado” en la personalidad y en su obligación de jugar ese rol. De esta forma, afianzamos la personalidad y le ponemos unas anteojeras más difíciles de quitar.
También es importante cómo asigno el rol a través de la etiqueta {rol}. Esto es importante porque, después, tendremos que ir recordándole quién es y qué debe hacer (para que no pierda el hilo). Al etiquetar los pasos, esta labor de referencia podemos hacerla más cómodamente.
Además, quiero que te fijes en cómo le pido confirmación parafraseando mi mensaje. Es más importante de lo que parece a simple vista.
Hay quien se contenta con un “Si lo has entendido, contesta con un ‘sí’”. Está bien, pero a mí me parece menos potente. Por dos motivos.
El primer motivo es que la IA puede asumir que ha entendido el asunto, pero, en realidad, estar confundiéndose internamente. Si sólo te contesta con un “sí”, no tienes forma de saber si está ocurriendo esto.
El segundo motivo es que, después de haber hecho muchísimo jailbreak (lo veremos más adelante), he llegado a la conclusión de que la IA es más dependiente del camino en sus propios outputs que en tus inputs.
Es decir, si ella dice algo, lo asumirá como propio con mayor fuerza que sí lo has dicho tú. Esto lo identifiqué por puro ensayo y error en su día y quizá sea una gilipollez, pero estoy bastante seguro de que hay algo en esa dirección (y apuesto a que, si practicas lo suficiente, llegarás a la misma conclusión).
Así que yo te recomiendo pedir confirmaciones vía paráfrasis. En los siguientes puntos también lo veremos.
Por último, fíjate que le digo «no olvidarás este dato por muy larga que sea la conversación«. ¿Por qué especifico esto? Porque, como decía anteriormente, creo que el sistema en el que ChatGPT va guardando las conversaciones no consiste en los últimos 4000 tokens a pelo. Hace resúmenes o algo similar (algún sistema de este tipo tiene). Lo sé porque en su día hice la prueba y recordaba un dato tras muchos más tokens, porque le había especificado que lo recordase (quería comprobar cuál era la memoria del nuevo modelo vs. GPT-3). Así que se lo especifico por si la conversación es muy larga, que no se olvide de su rol.
Presentación de información de fondo
Ahora es el momento de presentarle la información de fondo que va a necesitar. Es decir, aquella información SOBRE EL MUNDO EN GENERAL que la IA debe tener para poder hacer el trabajo.
En nuestro caso, la información relativa a Midjourney.
Date cuenta de que aquí aún no le presentamos la información sobre nuestro caso particular ni los datos de nuestro trabajo (que, obviamente, no conocerá).
Aquí, de momento, sólo establecemos la información necesaria para que su mundo se parezca al nuestro.
Por supuesto, si sabes que esa información sobre el mundo que necesitas para hacer tu trabajo está presente en el set de datos de ChatGPT, te puedes saltar este punto.
En nuestro caso, le tenemos que pasar la información sobre Midjourney.
Después, nuevamente, le pedimos que confirme que lo ha entendido vía parafraseo.
¡Por cierto!
Estamos hablando de ChatGPT porque es el que más útil me resulta para esta explicación, puesto que BingBot no te va a decir “no sé qué es esto”, en la medida en que tiene un buscador y podría buscar lo que es Midjourney, entenderlo y explicártelo.
Sin embargo, no recomiendo que te saltes este paso con BingBot en aquellos casos en que preguntes por algo muy específico o extraño, porque podría confundir información y mantener la confusión a lo largo de la conversación. Es mejor asegurarse de que tiene la información correcta y la entiende bien.
Presentación de la información CONTEXTUAL
Ahora que la IA sabe quién es y qué es Midjourney, es el momento de explicarle el contexto en el que te encuentras y cómo quieres que te ayude.
Puedes explicarle la situación en la que estás, a qué problema te enfrentas, qué plan tienes para resolverlo, qué necesitas que haga ella para ayudarte… Todo lo que se te ocurra, vaya. Y la IA te ayudará con gusto.
Nuevamente, le pedimos confirmación para que nos muestre que ha comprendido la situación en la que estamos.
Date cuenta de que, aquí, es el momento de introducir toda la información necesaria. En nuestro caso, con la situación, las debilidades y las fortalezas es suficiente. Pero, si quisieras hacer una serie de cálculos para acabar determinando en qué empresa invertir, deberías hacerlo aquí, también.
En caso de ser necesario, este punto también es el adecuado para presentar referencias y ejemplos.
En resumen, en este punto debemos presentar toda la información y el contenido con el que vaya a tener que trabajar en concreto, no como background general.
Cuando vayas mejorando tu capacidad para diseñar estos flujos de prompts, puedes guardar cierta información para dársela y usarla más tarde. Pero, en esta estructura básica, vamos a realizar un trabajo razonablemente simple y podemos darle toda la información en este paso.
Fíjate en que, hasta este momento, la IA todavía no nos ha ayudado a nada. Simplemente, la estamos preparando para que nos ayude.
Por supuesto, para usos más triviales, puedes ahorrarte estos pasos o juntar algunos de ellos. Pero, si quieres conseguir resultados óptimos para un trabajo complejo o importante, conviene que dejes bien afianzado todo antes de empezar a obtener respuestas de la IA.
Comprobación del contexto
Llegados a este punto, puede que estés dudando de que la IA pueda funcionar con este sistema de etiqutas.
Es una duda razonable. Por ello, vamos a comprobar que el contexto de la conversación se está guardando correctamente.
Puedes hacerlo así:
Bien, ¿no?
Este es un paso muy importante, especialmente en conversaciones largas, porque nos ayuda a comprobar que la IA está bien alineada con nuestros intereses. Por ello, yo uso este paso en múltiples ocasiones a lo largo de las conversaciones, aunque sólo sea a modo de comprobación y después edite el prompt para, en realidad, usar ese paso para algo del trabajo que esté realizando.
En este caso, voy a dejar la respuesta para mantener frescas todas las ideas que le he metido por la garganta (aunque es un momento temprano de la conversación, así que podría editar el prompt y continuar la conversación normalmente).
Manipulación de los datos
Ahora que ya tenemos a la IA bien seteada y hemos conseguido que tenga claro toooodo el contexto, pasamos a la manipulación de datos.
Aquí puede haber varios pasos incluidos. Es decir, varios prompts, según lo que queramos conseguir y el trabajo que queramos realizar.
En general, es conveniente que tengas estos pasos predefinidos en tu flujo de prompts. Sin embargo, gracias al seteo que hemos hecho anteriormente, tenemos a la IA bastante cuadriculada.
Tenemos un buen molde para el bizcocho, digamos.
Por tanto, tenemos más margen para improvisar. Si consideramos que nos resulta útil una determinada manipulación de los datos que no habíamos considerado inicialmente, podemos incluirla sin miedo a que el resultado se vea afectado.
¿Qué tipo de manipulación de datos podemos hacer?
Pues casi todas las que se te ocurran que incluyan comprensión y manipulación de texto, código o formatos de markdown.
Más adelante, en este mismo módulo, encontrarás una lección de Casos de Uso donde podrás ver una mayor de ejemplos que te sugerirán posibles instrucciones para manipular datos.
Pero, como digo, en este punto, el límite es el cielo y tu imaginación.
En nuestro caso, vamos a hacer unas cuantas manipulaciones:
- Pedimos que genere una lista numerada con 5 ideas de negocio.
- Pedimos que elimine 2 que no nos gusten.
- Pedimos que genere una tabla con las 3 restantes, con los siguientes datos: En la primera columna, tendremos el número identificador; en la segunda, el nombre del proyecto; en la tercera, la explicación; en la cuarta, en qué fortaleza se apalanca esa idea de negocio; en la quinta, qué debilidades pueden hacer fracasar ese proyecto.
- Le pediremos que guarde esa tabla (porque ChatGPT tiene problemillas para recordar la tabla con exactitud si no se lo explicitas).
- Vamos a pedirle que nos genere formas de superar nuestras debilidades principales.
- Elegiremos una y le pediremos que nos seleccione el mejor emprendimiento.
- Le pediremos que nos genere una explicación detallada de la idea de negocio, por qué encaja con nuestros puntos fuertes, etc (toda la info anterior, pero sin ser formato carta, eso lo haremos en el output final).
Aquí el ejemplo:
No prestes mucha atención al fondo del asunto y a la corrección o no de los pasos. Es un ejemplo random que se me ha ocurrido sobre la marcha para poder ver bastantes pasos, no un trabajo importante para mí ni un caso de uso real. Lo relevante es que hay una buena cantidad de pasos intermedios de manipulación de datos y que la IA obedece bien y no se despista en casi ningún momento, gracias al seteo de datos que le dimos al principio.
Lo único que tendríamos que hacer es corregir un poco el párrafo de Midjourney y lo tendríamos listo (obviamente, para el nivel en el que nos estamos moviendo. Esto no es una carta que puedas presentar a un inversor, es sólo un ejemplo para ilustrar una secuencia de prompts).
Por cierto, si te fijas, tanto en el caso de la tabla como en el caso del texto final, le paso como input el output previo que ha generado. Por algún motivo, ChatGPT tiene problemillas para rescatar palabra por palabra un output que haya generado previamente. Si alguien tiene algún prompt para evitar que eso pase, que me lo diga, porque es un coñazo y se come bastantes tokens, pero no he encontrado forma de resolverlo.
Generación del resultado
Por último, cuando hayamos dado forma a los datos tal y como deseamos, llega el momento de generar el resultado. Es decir, la carta de presentación.
Mucha gente empieza directamente en este punto, y muchos malos resultados se derivan de ello. Es mejor ir poco a poco y afianzando bien todo antes de buscar un resultado. Especialmente cuando lo que queremos hacer es complejo o importante (o ambos).
¿Cómo generamos el resultado?
Bueno, hemos llegado al final del procesamiento de datos:
Tenemos una idea de negocio con Midjourney que se ajusta a nuestras fortalezas y una idea de cómo vamos a resolver nuestros puntos débiles.
Ahora, queremos escribir una carta de presentación para un inversor.
¿Le pedimos directamente que la genere?
¡No!
Abrimos una nueva conversación y le asignamos el rol de un emprendedor con una oferta de emprendimiento para un inversor (en este caso, como el proceso es más simple, no necesitamos crear una secuencia de prompts demasiado larga) y le pasamos como información lo que busca nuestro inversor. En nuestro caso, @javilop.
Después, le pasamos el último texto que nos generó la IA en la anterior conversación y le pedimos que adapte nuestro texto a los criterios de @javilop (que hemos extraído de su guía de inversión en startups), de forma que maximice las probabilidades de que nos haga caso.
Este es el resumen de las exigencias de @javilop:
Esto nos llevará a esta carta de presentación final:
A partir de aquí, podemos iterar para darle un toque más personal, corregir cosas o lo que sea (por ejemplo, aquí se saca de la manga información, porque, como no lo habíamos especificado y le hemos dicho que se ajuste a lo que busca @javilop, pues se lo ha inventado, también hay varios puntos muy genéricos, etc., pero, como base, nos puede servir -piensa en usar esta técnica dedicándole unos cuantos días para generar una muy buena carta y, después, enviarla personalizada a 200 inversores… ¡Seguro que alguno cae! Como cuando utilicé Copywriting para encontrar el último piso barato de Andorra).
En definitiva, la carta ya la tenemos.
Y está bastante goapa.
Una última cosa: Alguien podría preguntarse: ¿Y no podríamos haber incluido la información sobre @javilop en la misma conversación inicial?
Y la respuesta es que sí. De hecho, podríamos haber añadido columnas a las tablas para, por ejemplo, que ChatGPT nos indique cuánto se adapta la idea de negocio a lo que busca @javilop.
Sin duda, el proceso podría complejizarse tanto como queramos (siempre con cuidado de que ChatGPT no pierda el hilo).
Pero quería que vieras cómo el uso de más de una conversación en paralelo puede generar buenos resultados. Porque, aunque en este caso no era 100% necesario, en otros sí puede serlo.
Para terminar, mencionar que lo importante aquí no es el output final. Eso es lo de menos. Lo importante aquí es cómo hemos ido iterando a lo largo de la conversación. Hemos llegado sin tener ni idea de qué proyecto montar con Midjourney y hemos terminado con una carta de presentación para un inversor.
Si tú coges la información que hemos ido generando, manipulando y obteniendo a lo largo de la conversación y se la pasas como prompt a ChatGPT (un prompt mínimamente elaborado), conseguirás una carta parecida… ¡Pero lo importante es cómo hemos llegado a esa carta!
Si ya tienes toda la información necesaria, no necesitas una secuencia de prompts. Te basta con un único buen prompt. Nosotros aquí buscamos trabajar sobre una idea vaga. Iterarla y conseguir resultados a los que, de otra forma, no llegaríamos.
Además, este proceso se podría haber planteado de otras formas. Por ejemplo, podríamos haber hecho una conversación previa en la que la IA, con el rol de coach, nos hiciera preguntas sobre cómo nos enfrentaríamos al proyecto y que, de ahí, sacase una lista más completa de nuestras fortalezas y debilidades.
Hay muchas formas de enfocar un trabajo de este tipo con ChatGPT.
Prompteando como si programases
Ahora que hemos visto una estructura básica para trabajar con las IAs de Diálogo, vamos a añadir un poco más de complejidad al asunto. En concreto, vamos a profundizar en los usos de funciones que hemos estado usando (los {textos} entre llaves).
A las IAs las puedes tratar como si programases, con la ventaja de que no es necesario que sepas programar. Basta con que tengas un pensamiento mínimamente lógico y sepas estructurar tus pensamientos.
Vamos a poner un ejemplo sencillo, pero que muestra el potencial de lo que comentamos. Después, puedes dedicarte a mezclarlo con la estructura básica que vimos antes y, así, conseguir resultados más potentes.
Lo que vamos a hacer en este caso es generar tres especies para un World Building de un juego o novela que estamos diseñando.
Y, para ello, vamos a usar variables, porque, con ellas, podremos manipular mucho más los resultados.
Vamos a pedirle a la IA, en un primer momento, que actúe como un escritor de fantasía que está creando un mundo nuevo para su novela, y que, en específico, está creando tres especies que aparecerán en ella.
Lo que vamos a hacer es pedirle que cree una tabla con 3 especies y vamos a asignar funciones a las características, tal que {nombre[n]}. De este modo, podremos tener un control rápido y eficiente de todos los datos que se van generando.
Te lo pongo en un ejemplo (no profundizo mucho porque es fácil de ver lo que hacemos):
Trabajar con este tipo de variables y funciones nos permitirá ganar eficiencia, trabajar más rápido y controlar muchísima más información de una forma muy cómoda.
Cabe mencionar que, en el caso de ChatGPT 3.5, el uso de funciones de este tipo se limita a cuestiones básicas. En cambio, en ChatGPT 4, la cosa se puede complejizar tanto como desees, utilizando varias, anidándolas y combinándolas o haciendo operaciones con ellas.
Por ejemplo:
Más de 3000 orangotanes ya reciben mis emails
Suscríbete a la Niusleta de Joseo20.
Yo sí mando spam. Cuando tengo que vender, vendo. El resto de tiempo envío emails con temas que considero interesantes.
Hablo de todo lo que me sale de los cojones, no sólo de marketing o negocios. Hay política, filosofía y otras gilipolleces.
Es probable que después de leerla me odies.
Incluye orangotanes.
Deja un comentario
Lo siento, debes estar conectado para publicar un comentario.