Carta firmada por Elon Musk que pide una prórroga en la investigación de IA genera controversia

Se ha revelado que la declaración tiene firmas falsas y los investigadores han condenado el uso de su trabajo.
Carta firmada por Elon Musk que pide una prórroga en la investigación de IA genera controversia
[responsivevoice_button voice="Spanish Latin American Male" buttontext="Escuchar Noticia"]

Carta firmada por Elon Musk que pide una moratoria en la investigación de IA genera controversia
Se descubrió que la declaración tenía una firma falsa y los investigadores condenaron el uso de su trabajo.

cary paul y agencia
sábado 01 abril 2023 06:00 BST
Una carta firmada conjuntamente por Elon Musk y miles de personas más que pedían una moratoria en la investigación de inteligencia artificial provocó una tormenta de fuego, con algunos signatarios despedidos después de que los investigadores citados en la carta denunciaran el uso de su trabajo. Se descubrió que era falso, y otros abandonó Con tu apoyo.

Carta firmada por Elon Musk que pide una moratoria en la investigación de IA genera controversia
Se descubrió que la declaración tenía una firma falsa y los investigadores condenaron el uso de su trabajo.

cary paul y agencia
sábado 01 abril 2023 06:00 BST
Una carta firmada conjuntamente por Elon Musk y miles de personas más que pedían una moratoria en la investigación de inteligencia artificial provocó una tormenta de fuego, con algunos signatarios despedidos después de que los investigadores citados en la carta denunciaran el uso de su trabajo. Se descubrió que era falso, y otros abandonó Con tu apoyo.

El 22 de marzo, más de 1.800 signatarios, incluidos Musk, el científico cognitivo Gary Marcus y el cofundador de Apple, Steve Wozniak, pidieron una moratoria de seis meses sobre el desarrollo de sistemas «más potentes» que GPT-4. Ingenieros de Amazon, DeepMind, Google, Meta y Microsoft también brindaron soporte.

“Los laboratorios de IA y los expertos independientes deberían usar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzado de IA que son rigurosamente auditados y supervisados ​​por expertos externos independientes”, decía la carta.

El instituto Future of Life, el grupo de expertos que coordinó el esfuerzo, citó 12 investigaciones de expertos, incluidos académicos universitarios, así como empleados actuales y anteriores de OpenAI, Google y su subsidiaria DeepMind. Pero cuatro expertos citados en la carta han expresado su preocupación de que su investigación se haya utilizado para hacer tales afirmaciones.

Cuando se lanzó inicialmente, la carta carecía de protocolos de verificación para firmar y acumuló firmas de personas que en realidad no la firmaron, incluidos Xi Jinping y el científico jefe de inteligencia artificial de Meta, Yann LeCun, quien aclaró en Twitter que no la apoyaba.

Los críticos han acusado al Future of Life Institute (FLI), que está financiado principalmente por la Fundación Musk, de priorizar escenarios apocalípticos imaginarios sobre preocupaciones más inmediatas sobre la IA, como la programación de sesgos racistas o sexistas en las máquinas.

Entre las investigaciones citadas se encontraba «Sobre los peligros de los loros estocásticos», un conocido artículo escrito en coautoría por Margaret Mitchell, quien anteriormente supervisó la investigación ética de IA en Google. Mitchell, ahora jefe científico ético de la firma de inteligencia artificial Hugging Face, criticó la carta y dijo a Reuters que no estaba claro qué contaba como «más poderoso que GPT4».

“Al tratar muchas ideas cuestionables como un hecho, la carta afirma un conjunto de prioridades y una narrativa sobre la IA que beneficia a los partidarios de FLI”, dijo. “Ignorar los daños activos en este momento es un privilegio que algunos de nosotros no tenemos”.

Sus coautores Timnit Gebru y Emily M Bender criticaron la carta en Twitter, y esta última calificó algunas de sus afirmaciones como «desquiciadas». Shiri Dori-Hacohen, profesora asistente de la Universidad de Connecticut, también discrepó con la mención de su trabajo en la carta. El año pasado, fue coautora de un artículo de investigación que argumentaba que el uso generalizado de la IA ya planteaba riesgos graves.

Su investigación argumentó que el uso actual de los sistemas de IA podría influir en la toma de decisiones en relación con el cambio climático, la guerra nuclear y otras amenazas existenciales.

Ella le dijo a Reuters: “La IA no necesita alcanzar la inteligencia de nivel humano para exacerbar esos riesgos”.

“Hay riesgos no existenciales que son muy, muy importantes, pero que no reciben el mismo tipo de atención al nivel de Hollywood”.

Cuando se le pidió que comentara sobre las críticas, el presidente de FLI, Max Tegmark, dijo que tanto los riesgos a corto como a largo plazo de la IA deben tomarse en serio. “Si citamos a alguien, solo significa que afirmamos que respalda esa oración. No significa que estén respaldando la carta, o que respaldamos todo lo que piensan”, dijo a Reuters.