El CEO de Google, Sundar Pichai, advierte a la sociedad que se prepare para el impacto de la aceleración de la inteligencia artificial

El CEO de Google, Sundar Pichai, advierte a la sociedad que se prepare para el impacto de la aceleración de la inteligencia artificial
  • En una entrevista con «60 Minutes» de CBS que se transmitió el domingo, el CEO de Google, Sundar Pichai, insinuó que la sociedad no está preparada para los rápidos avances en inteligencia artificial.
  • Pichai dijo que las leyes que impiden los desarrollos de IA «no deberían ser decididas por la empresa» sola.
  • Temeroso de las consecuencias, dijo que la IA afectará a «todos los productos de todas las empresas».

El CEO de Google, Sundar Pichai, habla en un panel en la Cumbre de CEO de las Américas organizada por la Cámara de Comercio de EE. UU. el 9 de junio de 2022 en Los Ángeles, California.

fabricante de dinero Anna | imágenes falsas

Sundar Pichai, CEO de Google y Alphabet, dijo que «todos los productos de todas las empresas» se verán afectados por el rápido desarrollo de la inteligencia artificial, y advirtió que la sociedad debe prepararse para tecnologías como las que ya se han lanzado.

en Entrevista con «60 Minutos» en CBS. Se emitió el domingo con un estilo inquietante, con el entrevistador Scott Bailey probando varios proyectos de IA de Google y diciendo que estaba «sin palabras» y que se sentía «inquietante», refiriéndose a las capacidades humanas de productos como el chatbot de Google Bard.

“Necesitamos adaptarnos como sociedad para eso”, le dijo Pichai a Bailey, y agregó que los trabajos que podrían verse afectados por la IA incluirían “trabajadores del conocimiento”, irónicamente, incluidos escritores, contadores, arquitectos e incluso ingenieros de software.

«Esto afectará a todos los productos de todas las empresas», dijo Pichai. «Por ejemplo, podrías ser un radiólogo, si piensas dentro de cinco a 10 años, tendrías un colaborador de IA. Llegas por la mañana, dices que tienes cien cosas que hacer, él podría decir: ‘Estas son los casos más peligrosos que debes considerar primero».

READ  El lanzamiento tardío de Switch de Advance Wars finalmente puede ser informado

Bailey vio otras áreas con productos avanzados de IA dentro de Google, incluido DeepMind, donde los bots jugaban fútbol, ​​algo que aprendieron ellos mismos, a diferencia de los humanos. Otra unidad mostró robots que reconocían artículos en un mostrador y le traían a Billy la manzana que había pedido.

Y cuando Pichai advirtió sobre las consecuencias de la inteligencia artificial, dijo que la escala del problema de la desinformación, las noticias falsas y las imágenes sería «mucho mayor», y agregó que «podrían causar daño».

El mes pasado, CNBC informó que Pichai le dijo al personal internamente que el éxito del recién lanzado Bard ahora dependía de las pruebas públicas, y agregó que «las cosas van a empeorar».

Google lanzó su chatbot Bard impulsado por IA como un producto beta para el público el mes pasado. Esto siguió al anuncio de Microsoft en enero de que su motor de búsqueda Bing incluiría la tecnología GPT de OpenAI, que ganó atención internacional tras el lanzamiento de ChatGPT en 2022.

Sin embargo, los temores sobre las consecuencias de un rápido progreso también han llegado al público y a la crítica en las últimas semanas. En marzo, Elon Musk, Steve Wozniak y docenas de académicos pidieron la suspensión inmediata de los «experimentos» de capacitación relacionados con grandes modelos de lenguaje que eran «más poderosos que GPT-4», el programa insignia de MBA de OpenAI. Desde entonces, más de 25.000 personas han firmado la carta.

“La presión competitiva entre gigantes como Google y las nuevas empresas de las que nunca has oído hablar está impulsando a la humanidad hacia el futuro, ya sea que esté lista o no”, comentó Bailey en el clip.

READ  Aleatorio: YouTuber gasta casi $ 23k comprando cada juego 3D y Wii U eShop

Google lanzó el documento Esbozó «recomendaciones para regular la IA», pero Pichai dijo que la sociedad debe adaptar rápidamente las regulaciones y leyes para castigar las violaciones, los tratados entre países para hacer que la IA sea segura para el mundo, así como las reglas que estén «alineadas con los valores humanos, incluida la ética».

«No le corresponde a la empresa decidir», dijo Pichai. «Es por eso que creo que el desarrollo de esto debería involucrar no solo a los ingenieros, sino también a los sociólogos, especialistas en ética, filósofos, etc.».

Cuando se le preguntó si la sociedad está lista para la tecnología de inteligencia artificial como Bard, Pichai respondió: «Por un lado, no lo siento, porque el ritmo al que podemos pensar y adaptarnos como instituciones sociales, en comparación con el ritmo al que se desarrolla la tecnología , parece que hay un desajuste».

Sin embargo, agregó que es optimista porque, en comparación con otras tecnologías en el pasado, «más personas han comenzado a preocuparse por las ramificaciones» que antes.

A partir de un mensaje de seis palabras de Bailey, Bard creó una historia con personajes y una trama que ella inventó, incluido un hombre cuya esposa no podía concebir y un extraño afligido por un aborto espontáneo y anhelando un cierre. «Rara vez me quedo sin palabras», dijo Bailey. «La humanidad fue a una velocidad vertiginosa un shock humano».

Bailey dijo que le preguntó a Bard por qué ayuda a la gente y él respondió «porque me hace feliz», lo que Bailey dijo que lo sorprendió. «Parece que Bard está pensando», le dijo a James Manica, vicepresidente senior de Google que fue contratado el año pasado como jefe de «Tecnología y Sociedad». Manica respondió que Bard no está consciente y no es consciente de sí mismo, pero puede «actuar como él».

READ  'Shin Megami Tensei If' se ha agregado al grupo NSO Super Famicom de Japón

Pichai también dijo que Bard tiene muchas alucinaciones después de que Bailey explica que le preguntó a Bard sobre la inflación y recibió una respuesta inmediata con sugerencias para cinco libros que, cuando los revisó más tarde, en realidad no estaban allí.

Bailey también pareció preocupado cuando Pichai dijo que hay una «caja negra» con los chatbots, donde «no entienden del todo» por qué o cómo dan ciertas respuestas.

«¿No entiendes bien cómo funciona, pero lo has prohibido a la sociedad?» preguntó Bailey.

Pichai respondió: «Déjame decirlo de esta manera, tampoco creo que entendamos completamente cómo funciona la mente humana».

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *