El CEO de Google, Sundar Pichai, ha respondido a las críticas al bote de chat experimental de IA de la compañía, Bard, prometiendo que Google actualizará Bard en breve.
«Claramente tenemos modelos más capaces», dijo Pichai en una entrevista en The New York Times’ Podcast Hard Fork. «Muy pronto, tal vez así [podcast] se pone en marcha, actualizaremos a Bard a algunos de nuestros modelos PaLM más capaces, que aportarán más capacidades; ya sea en razonamiento, codificación, puede responder mejor a las preguntas de matemáticas. Así que verá el progreso a lo largo de la próxima semana».
«De alguna forma, siento como si tomamos un Civic mejorado y lo ponemos en una carrera con coches más potentes».
Pichai señaló que Bard funciona con una «versión ligera y eficiente de LaMDA», un modelo de lenguaje de IA que se centra en entrega de diálogo. «De alguna forma, siento como si tomamos un Civic mejorado y lo ponemos en una carrera con coches más potentes», dijo Pichai. PaLM, en comparación, es un modelo lingüístico más reciente; es mayor de escalera y Google sostiene que es más capaz de hacer frente a tareas como el razonamiento de sentido común y los problemas de codificación.
Bard se lanzó por primera vez a los usuarios públicos el 21 de marzo, pero no logró la atención ni la aclamación que ganaron el ChatGPT de OpenAI y el chatbot Bing de Microsoft. En El VirgenLas propias pruebas de estos sistemas, encontramos que Bard era constantemente menos útil que sus rivales. Como todos los chatbots de propósito general, es capaz de responder a una amplia gama de preguntas, pero sus respuestas generalmente son menos fluidas e imaginativas y no se aprovechan de fuentes de datos confiables.
Pichai sugirió que parte del motivo de las limitadas capacidades de Bard era un sentido de precaución en Google. “Para mí, era importante no poner [out] un modelo más capaz antes de poder asegurarnos por completo que podemos manejarlo bien», dijo.
Pichai también confirmó que estaba hablando con los cofundadores de Google, Larry Page y Sergey Brin, sobre el trabajo («Sergey hace tiempo que se encuentra con nuestros ingenieros») y que, aun cuando él mismo nunca publicó el famoso «código rojo«Para recorrer el desarrollo, probablemente había gente en la empresa que «enviaba correos electrónicos diciendo que había un código rojo».
Pichai también habló de la preocupación de que el desarrollo de la IA actualmente se está moviendo demasiado rápido y quizás supone una amenaza para la sociedad. Muchos de las comunidades tecnológicas y de IA han venido advirtiendo sobre la peligrosa dinámica de carrera que se juega actualmente entre empresas como OpenAI, Microsoft y Google. A principios de esta semana, una carta abierta firmada por Elon Musk y los principales investigadores de IA pedía una pausa de seis meses en el desarrollo de estos sistemas de IA.
«Eso necesitará mucho debate, nadie sabe todas las respuestas».
«En esa área, creo que es importante escuchar las preocupaciones», dijo Pichai sobre la carta abierta pidiendo la pausa. «Y creo que hay mérito preocuparse por eso… Esto necesitará mucho debate, nadie sabe todas las respuestas, ninguna empresa puede hacerlo bien». También dijo que «la IA es un área demasiado importante para no regular», pero sugirió que era mejor simplemente aplicar regulaciones a las industrias existentes, tales como las regulaciones de privacidad y las regulaciones en la asistencia sanitaria, que crear nuevas leyes para abordar específicamente la IA.
Algunos expertos se preocupan por los riesgos inmediatos, como la tendencia de los chatbots a difundir falsa desinformación, mientras que otros advierten sobre amenazas más existenciales; lo que sugiere que estos sistemas son tan difíciles de controlar que una vez conectados a la red más amplia podrían utilizarse de forma destructiva. Algunos sugieren que los programas actuales también se acercan a lo que se conoce como inteligencia general artificial, o AGI: sistemas tan capaces como un humano en una amplia gama de tareas.
«Estoy tan claro para mí que estos sistemas serán muy, muy capaces y, por tanto, apenas importa si ha llegado a AGI o no», dijo Pichai. «¿Podemos tener un sistema de IA que pueda provocar desinformación a escala? Sí. ¿Es AGI? Realmente no importa. ¿Por qué debemos preocuparnos por la seguridad de la IA? Porque tienes que anticiparte y evolucionar para conocer este momento «.
Puede escuchar la entrevista entera y leer una transcripción aquí.