El CEO de Google, Sundar Pichai, advierte a la sociedad estar preparada para los efectos de la aceleración de la inteligencia artificial
- En una entrevista con “60 Minutes” de CBS que se transmitió el domingo, el director ejecutivo de Google, Sundar Pichai, sugirió que la sociedad no está preparada para el rápido avance de la inteligencia artificial.
- Pichai dijo que las leyes que protegen los avances de la IA “no dependen de la empresa”.
- Advirtiendo de las consecuencias, dijo que la IA afectará a “todos los productos de todas las empresas”.
El CEO de Google, Sundar Pichai, habla en un panel en la Cumbre de CEO de las Américas organizada por la Cámara de Comercio de EE. UU. el 9 de junio de 2022 en Los Ángeles, California.
Introduzca Moneymaker | imágenes falsas
El director ejecutivo de Google y Alphabet, Sundar Pichai, dijo que “todos los productos de todas las empresas” se verán afectados por el rápido desarrollo de la inteligencia artificial y advirtió que la sociedad debe prepararse para tecnologías similares a las que ya se lanzaron.
en un una entrevista con “60 Minutos” de CBS. Publicado el domingo, en un tono de preocupación, el entrevistador Scott Pelley probó varios de los proyectos de IA de Google y dijo que estaba “sin palabras” y lo encontró “inquietante”, refiriéndose a las cualidades humanas de productos como el chatbot de Google, Bard.
“Tenemos que adaptarnos a eso como sociedad”, dijo Pichai a Pelley, y agregó que los trabajos interrumpidos por la IA incluirían “trabajadores del conocimiento”, incluidos escritores, contadores, arquitectos e, irónicamente, incluso ingenieros de software.
“Esto afectará a todos los productos de todas las empresas”, dijo Pichai. “Podrías ser un radiólogo, por ejemplo, si piensas que dentro de cinco o diez años tendrás un colaborador de IA. Llegas por la mañana, digamos que tienes cien cosas por las que pasar. Puede decir , ‘Estos son los casos más serios que necesita ver primero.’
Pelley analizó otras áreas de los productos avanzados de inteligencia artificial de Google, incluido DeepMind, donde los robots jugaban fútbol que aprendían por sí mismos, a diferencia de los humanos. Otra unidad mostró robots que reconocían objetos en una superficie de trabajo y buscaban una manzana para Pelley.
Al advertir sobre las consecuencias de la IA, Pichai dijo que la escala del problema de la desinformación y las noticias e imágenes falsas es “mucho mayor”, y agregó que “puede causar daños”.
El mes pasado, CNBC informó que Pichai les dijo a los empleados internamente que el éxito de su programa Bard recién lanzado ahora depende de las pruebas públicas, y agregó que “las cosas van a salir mal”.
Google lanzó su AI chatbot Bard como un producto experimental para el público el mes pasado. Siguió al anuncio de Microsoft en enero de que su motor de búsqueda Bing incorporaría la tecnología GPT de OpenAI, que ganó atención internacional tras el lanzamiento de ChatGPT en 2022.
Sin embargo, en las últimas semanas, los temores sobre las consecuencias del rápido progreso también han llegado al público y la crítica. En marzo, Elon Musk, Steve Wozniak y docenas de investigadores pidieron que se detuvieran de inmediato los “experimentos” que involucraban grandes modelos de lenguaje que eran “más poderosos que GPT-4”, el LLM insignia de OpenAI. Desde entonces, la carta ha sido firmada por más de 25.000 personas.
“La presión competitiva entre gigantes como Google y nuevas empresas de las que nunca has oído hablar está impulsando a la humanidad hacia el futuro, esté lista o no”, comentó Pelley en el segmento.
Google ha lanzado un documento esbozar “recomendaciones para regular la IA”, pero Pichai dijo que la sociedad debe adaptarse rápidamente a la regulación, las leyes que castigan los abusos y los tratados entre naciones para mantener la IA segura para el mundo, y las reglas que son “consistentes con los valores humanos, incluida la moralidad”.
“No depende de la empresa”, dijo Pichai. “Es por eso que creo que este desarrollo debe afectar no solo a los ingenieros, sino también a los científicos sociales, especialistas en ética, filósofos, etc.”.
Cuando se le preguntó si la sociedad está lista para la tecnología de inteligencia artificial como Bard, Pichai dijo: “Por un lado, siento que no, porque la velocidad a la que podemos pensar y adaptarnos como instituciones sociales en comparación con la velocidad a la que se desarrolla la tecnología parece estar en desacuerdo”.
Sin embargo, agregó que era optimista porque, en comparación con otras tecnologías en el pasado, “la cantidad de personas que comienzan a preocuparse por las consecuencias” lo hizo antes.
Impulsado por las seis palabras de Pelley, Bard creó una historia con personajes y tramas que inventó, incluido un hombre cuya esposa no podía concebir y un extraño afligido por un aborto espontáneo y anhelando ser detenido. “Rara vez me quedo sin palabras”, dijo Pelley. “La humanidad a una velocidad sobrehumana fue un shock”.
Pelley dijo que le preguntó a Bard por qué ayuda a las personas, y respondió “porque me hace feliz”, lo que Pelley dijo que lo sorprendió. “Parece que Bard piensa”, le dijo a James Manyika, un ejecutivo de Google contratado el año pasado para dirigir “tecnología y sociedad”. Manyika respondió que el Bardo no es sensible y no es consciente de sí mismo, pero puede “actuar así”.
Pichai también dijo que Bard tiene muchas alucinaciones, y Pelley explicó que le preguntó a Bard sobre la inflación y obtuvo una respuesta inmediata con sugerencias de cinco libros que, luego comprobó, en realidad no existían.
Pelley también pareció preocupado cuando Pichai dijo que hay una “caja negra” con chatbots donde “no entiendes completamente” por qué o cómo provoca ciertas respuestas.
“¿No entiendes completamente cómo funciona y, sin embargo, lo has alejado de la sociedad?” preguntó Pelley.
“Déjame decirlo de esta manera, tampoco creo que entendamos completamente cómo funciona la mente humana”, respondió Pichai.
Especialista web. Evangelista de viajes. Alborotador. Fanático de la música amigable con los hipster. Experto en comida