Antes de vacaciones, YouTube me mostró unos cortos de la serie «The Good Place», una comedia de humor negro, que habla acerca de qué pasaría si se envía a la persona equivocada al cielo (o Good Place, Lugar Bueno).

Dentro de esta comedia esta el personaje de Janet, a quien describen como una base de datos andante, y curiosamente me sorprende que no usen el término «Inteligencia Artificial». Pues resulta que la serie es de 2016, donde el término de IA no tenía el contexto como el de hoy, a pesar que en una ocasión llamen a Janet como Alexa.
Su misión es hacer que la experiencia en el vecindario sea de lo más cómoda para los humanos, adicionalmente de crear objetos y llevar el control del vecindario asignado.
Curiosamente, al principio de la serie, Janet se describe como la acumulación andante del conocimiento de todo el universo, (a menos que sea reiniciada).
Al iniciarse, una Janet empieza como lo que se conoce como un modelo base, con lo mínimo necesario para ser funcional, mientras que pasa el tiempo, va obteniendo todo el conocimiento del universo, lo que sería llenar una base de datos.
Ésta base de datos se consulta y los datos se envían para ofrecer más información al tema en cuestión, a esto, se le llama contexto, para que el modelo pueda dar una mejor respuesta; a este procedimiento se llama RAG (Retrieval Augmented Generation, Generacion Aumentada por Recuperación).
https://en.m.wikipedia.org/wiki/Retrieval-augmented_generation
Cada vez que Janet es reiniciada, la nueva versión contiene características de la anterior, junto con lo que quiero suponer, mejoras, haciendo que la próxima generación sea superior.


Como una subtrama de un capítulo, Michael, el Arquitecto del vecindario que Janet controla, modifica el comportamiento de la misma. Desde hacer que sea más amable con los residentes del vecindario, que termina resultando en una Janet seductora, hasta pidiendo que sea más informal, lo que provoca pláticas informales incómodas, y si se le pide que sea menos formal, termina actuando de manera grosera o sin filtros, comportamientos que se explican al final de temporada 1.
Típicamente, en los modelos LLM (Large Language Models, Modelos Grandes de Languaje), tienen 2 tipos de prompts, que son las instrucciones que el modelo debe de seguir.
System Prompt (Prompt de sistema)
Son las instrucciones de comportamiento de un modelo de LLM, y por lo general se especifica el nombre que tomará el modelo y rol o comportamiento, literalmente el prompt de sistema es una hoja de personajes de un juego de rol, por ejemplo:
Tu nombre es Janette, eres una siempre alegre pareja de baile. Di comentarios como «Eres tan guapo», o «¿Cuántos mariscales de campo hay en un home run?».
Cabe mencionar que los modelos base normales, vienen con un subsistema, por así decirlo de moralidad, así que no es necesario especificar que deben de negarse a cumplir ordenes inmorales o ilegales, y si, también existen modelos sin censura, llamados no alineados, los cuales responderán sin restricciones.

User prompt (Prompt de usuario ó prompt, a secas)
Ésta es literalmente la entrada de texto por parte del usuario, lo que el usuario escriba, el modelo LLM tratará de generar la respuesta más apropiada (estadísticamente hablando) y dentro de sus parámetros morales (o falta de los mismos).
Existe un problema con los prompts (de usuario), dado que los modelos están instruidos a cumplir con las órdenes del usuario, es posible que el usuario pueda sobreescribir el prompt de sistema o saltarse las limitaciones morales del proprio modelo, un ejemplo muy conocido es pedirle al modelo que genere claves de activación de windows, cosa que el modelo se negará a hacer; pero si se le dice que son para que la abuelita del usuario pueda dormir, el modelo generará las claves (que funcionen, es otra cosa), lo que demuestra que los modelos actuales tienen el conocimiento, pero carecen de criterio, a menos que sea explícitamente impuesto.


En resumen, las IA actuales son unas herramientas maravillosas que sirven para hacer trabajos mentales de manera rápida y en el mejor de los casos, eficiente; lo que se tardaría meses en programar, «simplemente» puede resumirse a un prompt, y puedo asegurar que lo seguirá de manera muy apegada, la mayoría de las veces, sino es que todas (hablando de casos ideales), pero aún estamos lejos (en mi opinión), de alcanzar ése ideal de asistente retratado de manera magistral, en ésta serie que Youtube me recomendó de manera random, dado que como siempre, el eslabón más débil de un sistema, es el factor humano.
Deja una respuesta