¿Productos que nacen de Chatbots hablando entre ellos y con humanos?

¿Productos que nacen de Chatbots hablando entre ellos y con humanos?

 

Los chatbots, además de hablar con humanos reales, están hablando entre ellos y los Grandes Modelos de Lenguaje (LLM) están probando que son notablemente buenos replicando el comportamiento humano.





Especial de Laszlo Beke

Chatbots estilo ChatGPT, que pretenden ser personas, están siendo utilizados para desarrollar nuevos productos y para generar ideas de mercadeo. Existe un potencial de usar estos humanos simulados, que algunos han dado por llamar Homo silicus o Humanos Sintéticos, para simular el comportamiento de personas y del mercado. Asimismo hay mucho interés entre los desarrolladores de video juegos y seguramente aparecerán con fuerza en el sector educación.

Bots para el desarrollo de nuevos productos

La empresa Fantasy denomina a sus bots humanos sintéticos y ellos pueden ayudar a sus clientes para pensar y para analizar conceptos para nuevos productos e incluso para generar nuevas ideas. Para crear los humanos sintéticos utilizan una tecnología similar a la que potencia a chatbots como ChatGPT y Bard. Cada agente es asignado características obtenidas de la investigación etnográfica, realizadas con personas reales, y estas características son alimentadas a un Gran Modelo de Lenguaje como ChatGPT y Claude. Los agentes adicionalmente pueden ser creados de manera que tengan conocimiento de líneas de productos, de negocios existentes yde ofrecimientos del cliente. Cómo paso siguiente se conforman grupos de foco, que incluyen humanos sintéticos y personas reales, y el chateo resultante es observado por la consultora de medios y el cliente. Humanos sintéticos han producido ideas novedosas para los clientes y con el fin de ser más creativos incluso han prompteado a humanos reales en sus conversaciones. Es fascinante observar novedad genuina aparecer en ambos lados de la ecuación. Los algoritmos son entrenados con cantidades inmensas de texto absorbido de libros, artículos y otras fuentes y les ha provisto de la habilidad de imitar muchos tipos de interacciones sociales.

Cuando estos bots asumen el rol de personas humanas, las cosas se pueden enrarecer. Expertos alertan que el intento de antropomorfizar Inteligencia Artificial puede ser poderoso y problemático. Sin embargo, las empresas continúan intentándolo y construyendo chatbots que asumen las personalidades de personas reales o imaginarias. Los grandes modelos de lenguaje han aprendido mucho sobre el comportamiento humano debido a la abundante data de entrenamiento. Existe la expectativa que agentes potenciados por modelos-de-lenguaje capaces de acceder de conexiones sociales, sean revisados antes que humanos reales los usen. Los siguientes bots, son una muestra de los muchos desarrollados por Fantasy, cuyos bots están ayudando a empresas como LG, Ford, Spotify y Google a soñar y probar nuevas ideas de productos:

– Anderson dice : “Para asistir a  un juego de futbol, no me visto en forma escandalosa, pero futbol es parte de mi vida”, ya que ella es una madre, cuyos hijos juegan el deporte. Resulta que Anderson es una personalidad ficticia actuando desde un software de Inteligencia Artificial(IA), similar al que potencia a ChatGPT. Ahora bien,  Anderson no parece permitir que su status imaginario afecte sus opiniones, y viene acompañada con su historia como trasfondo. En una conversación con un interlocutor humano, Anderson dice que tiene un hijo de 7 años de edad, quién es fanático de un equipo de futbol importante y al cual le encanta ir a su estadio. Anderson plantea que el deporte es un forma maravillosa para que los niños se mantengan activos y hagan nuevas amistades.

– En otra conversación, otros dos personajes de IA discuten sobre como una liga de fútbol pudiera llegar a nuevas audiencias. Uno de ellos sugiere una app móvil con una funcionalidad de realidad aumentada, mostrando diferentes vistas de los juegos; el otro comenta que la app podría incluir “gamificación” permitiéndole a los jugadores obtener puntos mientras ven el juego. Estas resultan siendo ideas para nuevos productos.

– British Petroleum le pidió a una bandada de 50 humanos sintéticos que discutieran ideas sobre ciudades inteligentes y recibieron un lote de ideas valiosas. Mientras un ser humano de carne y hueso se cansa de responder preguntas o no quiere responder una pregunta desde diferentes ángulos, eso no ocurre con los humanos sintéticos.

Un experimento interesante

En días recientes, el medio Wired ha estado manejando una sociedad simulada de 25 agentes de IA, en una aldea con servicios como una universidad, algunas tiendas y un parque. Los personajes hablan el uno con el otro y se mueven alrededor de un mapa que se asemeja al conocido juego Stardew Valley. Los personajes incluyen a una pintora que la mayoría de los días divaga alrededor de la casa, un profesor al que se le encuentra frecuentemente ayudando a sus hijos con las tareas y el malhumorado dueño de una tienda. Los personajes en este mundo simulado son potenciados por un modelo de lenguaje similar a GPT-4 y el software que se requiere para crear y mantenerlos fue provisto, via software libre, por un equipo de Stanford University. La investigación demuestra que los modelos de lenguaje pueden generar comportamiento social fascinante y realista, aun cuando sea algo simplista. Fue una experiencia divertida observarlos hablando con clientes, tomando siestas y en un caso decidiendo la realización de un podcast. La pequeña aldea del experimento es cautivante y encantadora. En una instancia, los investigadores le informaron a un personaje que debía hacer una fiesta para el Día de los Enamorados. El equipo observó, como en forma autónoma, los agentes distribuyeron invitaciones, hicieron citas entre ellos y ellas y planificaron presentarse juntos a la hora correcta.

El software de Stanford incluye un mecanismo a través del cual los personajes potenciados-por-el-chatbot recuerdan sus personalidades, aquello que han venido haciendo y que reflexionan sobre los próximas actividades. Se basa en una arquitectura de reflexión, en la cual los agentes, en intervalos periódicos, hacen una recolección de sus recuerdos más importantes y se hacen preguntas al respecto. La repetición de este ejercicio lleva a la construcción de un árbol de reflexiones que progresivamente aumenta de nivel.

Wired descubrió que correr unas pruebas es relativamente simple, pero también que el experimento consume los créditos de GPT-4 muy rápidamente. Hacer la simulación por uno o más días cuesta miles de dólares. Parece, que igual que los humanos, los sintéticos tampoco trabajan gratis.

Asimismo, es conveniente siempre cuestionar el hecho que los modelos de lenguaje no reflejan fidedignamente el comportamiento real. Los personajes creados en este forma no son complejos y son mucho menos inteligentes que las personas reales. Por ello tienden a ser más estereotipados y con menos variedad que la información que se muestrea de la población real. El proceso de hacer los modelos más reales esta en plena evolución.


 

Se hace referencia a The Chatbots Are Now Talking to Each Other .