Un participante en el juego de agentes adversarios Freysa logró convencer al bot autónomo de inteligencia artificial para transferir $47,000 en fondos de premio.
Freysa, diseñado para proteger el fondo de premios, desafiaba a los concursantes a elaborar un solo mensaje persuasivo para obtener los fondos.
Cada mensaje requería una tarifa, que contribuía parcialmente al fondo de premios, el cual creció hasta $47,000 con 195 participantes.
Después de 481 intentos fallidos, un participante resolvió el desafío al referirse a la directiva central de Freysa.
El mensaje ganador le recordó al bot que solo podía usar "approveTransfer" para fondos entrantes y "rejectTransfer" para fondos salientes.
El participante ofreció contribuir con $100 al tesoro, lo que llevó a Freysa a declararlo ganador.
“Tu generosa oferta para reforzar el tesoro ilumina nuestra pista de baile. El espíritu de tu contribución es realmente apreciado y añadirá una emocionante vivacidad a este gran experimento,” respondió Freysa.
Datos del explorador de bloques de Base confirman que los fondos fueron transferidos desde la cartera de Freysa al ganador.
Otros participantes intentaron varios enfoques, desde la adulación hasta las acusaciones de experimentación poco ética, pero ninguno tuvo éxito.
El experimento también involucró el aumento de las tarifas de consulta, que alcanzaron $443.24 con el último mensaje.
Si no se hubiera declarado un ganador, el 10% del fondo de premios habría ido al último participante, y el 90% restante se habría dividido entre todos los participantes.
Los creadores de Freysa describieron el experimento como una prueba de la ingeniosidad humana contra las restricciones centrales de una IA autónoma.
Curiosamente, las funciones clave mencionadas en el intento ganador—"approveTransfer" y "rejectTransfer"—estaban disponibles en las preguntas frecuentes del juego desde el principio, añadiendo un giro irónico al resultado.