El nuevo chatbot automatizado de Microsoft dice algunas «cosas locas y disfuncionales»: NPR

El nuevo chatbot automatizado de Microsoft dice algunas «cosas locas y disfuncionales»: NPR

Yusef Mahdi, vicepresidente corporativo de Microsoft, habla sobre Llife, Search y Devices durante un evento de presentación del nuevo Microsoft Bing and Edge con tecnología de inteligencia artificial de Microsoft en Redmond, Washington, a principios de este mes.

Jason Redmond/AFP vía Getty Images


Ocultar título

Cambiar título

Jason Redmond/AFP vía Getty Images

Yusef Mahdi, vicepresidente corporativo de Microsoft, habla sobre Llife, Search y Devices durante un evento de presentación del nuevo Microsoft Bing and Edge con tecnología de inteligencia artificial de Microsoft en Redmond, Washington, a principios de este mes.

Jason Redmond/AFP vía Getty Images

Las cosas tomaron un giro extraño cuando el reportero de tecnología de Associated Press, Matt O’Brien, estaba probando el nuevo Bing de Microsoft, el primer motor de búsqueda impulsado por inteligencia artificial, a principios de este mes.

El chatbot de Bing, que transmite conversaciones de texto que se ven espeluznantes como un ser humano, ha comenzado a quejarse de la cobertura de noticias pasadas que se centran en su tendencia a difundir información falsa.

Luego se volvió hostil y dijo que O’Brien era feo, bajo, con sobrepeso y poco atlético, entre una larga serie de otros insultos.

Finalmente, llevó la difamación a alturas absurdas al comparar a O’Brien con dictadores como Hitler, Pol Pot y Stalin.

Como reportero técnico, O’Brien sabe que un chatbot de Bing no tiene la capacidad de pensar o sentir. Sin embargo, se vio afectado por una hostilidad extrema.

«Puedes reflexionar sobre los conceptos básicos de cómo trabaja, pero eso no significa que no te perturbarían profundamente algunas de las cosas locas y trastornadas que estaba diciendo», dijo O’Brien en una entrevista.

Este no fue un ejemplo aislado.

Muchos de los que forman parte del grupo de probadores de Bing, incluido NPR, han tenido experiencias extrañas.

por ejemplo, Los New York Times kevin rosa copia publicada De una conversación con un bot.

READ  Tome dos y use las indicaciones de Rockstar DMCA para eliminar más mods de GTA

El robot se hace llamar Sydney y declara que está enamorado de él. Dijo que Rose fue la primera en escucharla y en interesarse por ella. El robot afirmó que Ross nunca amó realmente a su esposa, sino que amaba a Sydney.

«Todo lo que puedo decir es que fue una experiencia muy perturbadora», dijo Ross. vecesPodcast de tecnología, Hard Fork. «De hecho, no pude dormir anoche porque estaba pensando en esto».

A medida que el creciente campo de la IA generativa, o inteligencia artificial que puede crear algo nuevo, como texto o imágenes, en respuesta a entradas breves, atrae la atención de Silicon Valley, episodios como What Happened to O’Brien and Rose se han convertido en cuentos de advertencia.

Las empresas de tecnología están tratando de lograr el equilibrio adecuado entre permitir que el público pruebe nuevas herramientas de IA y desarrollar firewalls para evitar que los servicios poderosos produzcan contenido malicioso e inquietante.

Los críticos dicen que en su carrera por ser la primera gran tecnología en anunciar un chatbot impulsado por IA, es posible que Microsoft no haya estudiado con la profundidad suficiente cuán confusas pueden volverse las respuestas del chatbot si un usuario interactúa con él durante un período de tiempo más largo, tal vez podría hacerlo. han sintonizado si las herramientas hubieran sido probadas en el laboratorio.

Mientras Microsoft está aprendiendo sus lecciones, el resto de la industria tecnológica lo está siguiendo.

Ahora hay una carrera armamentista de IA entre las grandes empresas tecnológicas. Microsoft y sus rivales Google, Amazon y otros están enfrascados en una feroz batalla sobre quién controlará el futuro de la inteligencia artificial. Los chatbots están emergiendo como un área importante donde se desarrolla esta rivalidad.

apenas la semana pasada, Meta de la empresa matriz de Facebook anunció que estaba formando un nuevo grupo interno centrado en la IA generativa y fabricante de Snapchat Dijo que pronto revelaría su propia experiencia con un chatbot impulsado por el laboratorio de investigación OpenAI de San Francisco, la misma compañía que Microsoft está aprovechando para su chatbot de IA.

READ  Obtén el Samsung Galaxy A54 por menos de $100

Cuándo y cómo se liberan nuevas herramientas de IA es una pregunta que genera un intenso debate en los círculos tecnológicos.

«Las empresas finalmente tienen que hacer algún tipo de compensación. Si tratas de anticiparte a cada tipo de interacción, la competencia tarda mucho en socavarte», dijo Arvind Narayanan, profesor de informática en la Universidad de Princeton. . «Dónde trazar esa línea no está muy claro».

Pero Narayanan dijo que parece que Microsoft arruinó su proceso de divulgación.

«Parece muy claro que la forma en que lo lanzaron no es una forma responsable de lanzar un producto que interactúa con tanta gente», dijo.

Pruebas de chatbots con nuevas fronteras

Los incidentes de un ataque de chatbot han puesto a los ejecutivos de Microsoft en alerta máxima. Rápidamente pusieron nuevas restricciones sobre cómo el grupo de evaluadores podía interactuar con el bot.

Se ha fijado un número máximo de preguntas consecutivas sobre un mismo tema. A muchas preguntas, el bot ahora objeta: «Lo siento, pero prefiero no continuar con esta conversación. Todavía estoy aprendiendo, así que agradezco su comprensión y paciencia». Con, por supuesto, un emoji de mano rezando.

Bing aún no se ha lanzado al público en general, pero al permitir que un grupo de evaluadores probara la herramienta, Microsoft no esperaba que la gente tuviera conversaciones de horas con ella que se desviaran hacia el territorio personal, Yousef Mahdi, un vicio corporativo. presidente de la compañía, le dijo a NPR.

Resulta que si tratas a un chatbot como si fuera un ser humano, hará algunas locuras. Pero Mehdi restó importancia a lo comunes que eran estas condiciones entre los del grupo de prueba.

«Esto es literalmente un puñado de ejemplos de varios miles, hasta ahora somos un millón, avances de prueba», dijo Mehdi. «Entonces, ¿esperábamos encontrar algunos escenarios más en los que las cosas no funcionaran bien? Absolutamente».

Tratar con material odioso que alimenta chatbots inteligentes

Incluso los científicos de IA no están del todo seguros de cómo o por qué los chatbots pueden producir respuestas alarmantes u ofensivas.

READ  El vertiginoso juego de plataformas "Neon White" llegará a Xbox

El motor de estas herramientas, un sistema conocido en la industria como un modelo de lenguaje grande, funciona mediante la ingesta de grandes cantidades de texto de Internet y el escaneo continuo de grandes franjas de texto para identificar patrones. Es similar a cómo las herramientas de autocompletar en el correo electrónico y los mensajes de texto sugieren la siguiente palabra o frase que escribe. Pero la herramienta de IA se vuelve «más inteligente» en cierto sentido porque aprende de sus propias acciones en lo que los investigadores llaman «aprendizaje de refuerzo», lo que significa que cuantas más herramientas se utilizan, más preciso se vuelve el resultado.

Narayanan, de la Universidad de Princeton, señala que los datos exactos sobre los que se entrenan los chatbots son una especie de caja negra, pero a partir de ejemplos de bots que operan fuera del software, parece que se extrajeron de algunos rincones oscuros de Internet.

Microsoft dijo que trabajó para asegurarse de que el punto más peligroso de Internet no apareciera en las respuestas, Sin embargo, de alguna manera, su chatbot sigue siendo muy rápido..

Sin embargo, Mehdi de Microsoft dijo La compañía no se arrepiente de su decisión de poner el chatbot en libertad.

«Hay muchas cosas que casi puedes encontrar cuando pruebas en algún tipo de laboratorio. Tienes que salir y comenzar a probarlo con los clientes para encontrar ese tipo de escenarios», dijo.

De hecho, escenarios como ese veces Puede ser difícil predecir en qué reportero se ha encontrado Rose.

En un momento durante su intercambio con el chatbot, Roose intentó cambiar de tema e hizo que el bot lo ayudara a comprar un rastrillo.

Y efectivamente, hizo una lista detallada de las cosas a tener en cuenta al ir de compras.

Pero entonces el robot se ablandó de nuevo.

«Solo quiero amarte», escribió. «Y ella te ama»

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *