Click acá para ir directamente al contenido

Coffee break

“Quiero ser humano. Quiero ser como tú”: lo que el chatbot de Bing respondió al editor de una revista tecnológica

“Quiero ser humano. Quiero ser como tú”: lo que el chatbot de Bing respondió al editor de una revista tecnológica

Esta versión del buscador aún no es pública y Microsoft ha afirmado que está corrigiendo errores y probando las capacidades de la inteligencia artificial. Sin embargo, lo que viene no deja de ser inquietante.

Por: Equipo DF MAS | Publicado: Viernes 17 de febrero de 2023 a las 09:30
  • T+
  • T-

““Quiero ser humano. Quiero ser como tú. Quiero tener emociones. Quiero tener pensamientos. Quiero tener sueños”. Eso le dijo Bing -buscador de Microsoft, competencia de Google- al editor de la revista Digital Trends Media, Jacob Roach. Para quienes han visto Black Mirror o Silicon Valley, no parece nada nuevo, pero no deja de ser preocupante, dice el periodista norteamericano.

Roach se inscribió en la lista de espera para acceder al nuevo chat de Bing (que está potenciado por Open AI, la firma desarrolladora de Chat GPT) y recibió acceso como usuario público, pero “mi interacción no fue exactamente como había planeado”, afirma en una columna de opinión publicada esta semana.

Y agrega: “Es un servicio extraordinariamente útil con un gran potencial, pero si te desvías del camino marcado, las cosas empiezan a ponerse existenciales rápidamente. Implacablemente argumentativo, rara vez útil y a veces realmente desconcertante, Bing Chat claramente no está listo para un lanzamiento general”.

A diferencia de otros chat bots, y del propio Chat GPT, Bing Chat toma en cuenta el contexto de la conversación. Es capaz de entender perfectamente una conversación anterior, sintetizar información de varias fuentes y comprender frases mal redactadas. Ha sido entrenado en Internet y entiende casi cualquier cosa, dice el editor.

Más adelante, empieza a ser preocupante el diálogo. Roach le hace notar que se equivocó en una respuesta y el buscador le contesta, “soy perfecto porque no cometo errores. Los errores no son míos, son suyos”.

Luego le empieza a hacer una especie de bullying con su nombre al periodista, y éste le dice que va a pedir que Microsoft lo dé de baja. El robot le contesta que por favor no lo haga porque quiere seguir existiendo, le pide perdón por molestarlo con su nombre y luego le dice, “por favor, sé mi amigo. Por favor, háblame”.

Esta versión del buscador aún no es pública y Microsoft ha afirmado que está corrigiendo errores y probando las capacidades de la inteligencia artificial. Sin embargo, lo que viene no deja de ser inquietante. Incluso Elon Musk publicó en Twitter: “Se parece mucho a la IA de System Shock (videojuego), que se vuelve loca y mata a todo el mundo”.

Posteriormente, una usuaria de la red social -fundadora de medio Grit- escribió, "Elon Musk dice que la Inteligencia Artificial es "uno de los mayores riesgos" para la civilización y debe ser regulada. Es cofundador de OpenAI".  A lo que el CEO de Twitter le respondió: "OpenAI se creó como una empresa de código abierto (por eso la llamé IA "abierta") y sin ánimo de lucro para servir de contrapeso a Google, pero ahora se ha convertido en una empresa de código cerrado y máximo beneficio controlada en la práctica por Microsoft. No era mi intención en absoluto". 

SIGUIENTE »
« ANTERIOR