Un informe anual sobre el progreso de la IA ha puesto de manifiesto el creciente dominio de los actores de la industria sobre el mundo académico y el gobierno en el despliegue y salvaguarda de aplicaciones de IA.
El índice de IA 2023, compilado por investigadores de la Universidad de Stanford y empresas de IA como Google, Anthropic y Hugging Face, sugiere que el mundo de la IA entra en una nueva fase de desarrollo. Durante el último año, un gran número de herramientas de IA se han generalizado, desde chatbots como ChatGPT hasta software de generación de imágenes como Midjourney. Pero las decisiones sobre cómo desplegar esta tecnología y cómo equilibrar el riesgo y la oportunidad están firmemente en manos de los actores corporativos.
La IA de vanguardia requiere recursos enormes, lo que pone la investigación fuera del alcance del mundo académico
El Índice de IA afirma que durante muchos años el mundo académico lideró el desarrollo de sistemas de IA de última generación, pero ahora la industria se ha hecho cargo firmemente. «En 2022, había 32 modelos significativos de aprendizaje automático producidos por la industria en comparación con sólo tres producidos por la academia», dice. Esto se debe principalmente a las demandas de recursos cada vez mayores, en términos de datos, personal y potencia informática, que se requieren para crear estas aplicaciones.
En 2019, por ejemplo, OpenAI creó GPT-2, un primer modo de idioma grande o LLM, la misma clase de aplicaciones que se utiliza para alimentar a ChatGPT y el chatbot Bing de Microsoft. El GPT-2 costó aproximadamente 50.000 dólares para entrenar y contiene 1.500 millones de parámetros (una métrica que realiza un seguimiento del tamaño y la sofisticación relativa de un modelo). Pase en 2022 y Google creó su propio LLM de última generación, llamado PaLM. Esto costó entrenar unos 8 millones de dólares y contiene 540.000 millones de parámetros, lo que le hace 360 veces mayor que el GPT-2 y 160 veces más caro.
Los crecientes requisitos de recursos del desarrollo del IA cambian firmemente el equilibrio de poder hacia los actores corporativos. Muchos expertos del mundo de la IA se preocupan de que los incentivos del mundo empresarial también conduzcan a resultados peligrosos, ya que las empresas se apresuran a sacar los productos y dejan de lado las preocupaciones de seguridad en un esfuerzo por superar a los rivales. Ésta es una de las razones por las que muchos expertos piden actualmente una desaceleración o incluso una pausa en el desarrollo de la IA, como con la carta abierta firmada la semana pasada por figuras como Elon Musk.
A medida que los sistemas de IA se están desplegando más ampliamente, los incidentes de uso indebido han aumentado masivamente
A medida que las herramientas de IA se extienden más, no es de extrañar que el número de errores y casos de uso malicioso también aumente; por sí mismo, no es indicativo de una falta de protección adecuada. Pero otras evidencias sugieren una conexión, como la tendencia de empresas como Microsoft y Google recortar sus equipos de ética y seguridad de IA.
Sin embargo, el informe señala que el interés por la regulación de la IA por parte de legisladores y responsables políticos está aumentando. Un análisis de los registros legislativos de 127 países señaló que el número de proyectos de ley que contenían la frase «inteligencia artificial» aumentó de un solo aprobado en 2016 a 37 aprobados en 2022. En EE.UU., el control también aumenta en nivel estatal, con cinco de éstos. proyectos de ley propuestos en 2015 a 60 proyectos de ley relacionados con la IA propuestos en 2022. Este aumento de interés podría proporcionar un contrapeso a la autorregulación corporativa.
Sin embargo, el informe del Índice AI cubre mucho más terreno que esto. Tú puedes léalo entero aquí o consulte algunos de los aspectos destacados seleccionados a continuación: