Elon Musk y otros expertos piden pausar el desarrollo de los avances de Inteligencia Artificial

Más de mil personas, incluidos
profesores y desarrolladores de IA, firmaron conjuntamente una carta abierta a
todos los laboratorios de inteligencia artificial, llamándolos a detener el
desarrollo y la capacitación de sistemas de IA más potentes que GPT-4 durante
al menos seis meses.




La carta está firmada por personas en
el campo del desarrollo y la tecnología de Inteligencia Artificial  (IA), incluidos Elon Musk, cofundador de OpenAI, Yoshua Bengio, un destacado
profesor de IA y fundador de Mila, Steve Wozniak, cofundador de Apple,
Emad Mostraque, director ejecutivo de Stability. AI, Stuart Russell, pionero en
investigación de IA, y Gary Marcus, fundador de Geometric Intelligence.

La carta abierta, publicada por la
organización Future of Life, cita los riesgos
potenciales para la sociedad y la humanidad
que surgen del rápido
desarrollo de sistemas avanzados de IA sin protocolos de seguridad compartidos.

Peligros de
la inteligencia artificial

El problema con esta revolución es
que los riesgos potenciales aún no se han apreciado y contabilizado por
completo mediante un sistema de gestión integral, por lo que los efectos
positivos de la tecnología no están garantizados.

«La IA avanzada podría
representar un cambio profundo en la historia de la vida en la Tierra y debe
planificarse y administrarse con el cuidado y los recursos
correspondientes».

«Desafortunadamente, este nivel
de planificación y gestión no está sucediendo, a pesar de que en los últimos
meses los laboratorios de IA se han visto envueltos en una carrera fuera de
control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores,
pueden entender, predecir o controlar de forma fiable».
 

Carta

La carta también advierte que los
sistemas modernos de IA ahora compiten directamente con los humanos en tareas
generales, lo que plantea varias cuestiones existenciales y éticas que la
humanidad aún debe considerar, debatir y decidir.

Algunas preguntas importantes se
refieren al flujo de información generado por las IA, la automatización laboral descontrolada, el desarrollo de sistemas
que engañan a los humanos y amenazan con hacerlos obsoletos, y el control mismo de la civilización.

Los expertos firmantes creen que
hemos llegado a un punto en el que solo debemos entrenar sistemas de IA más
avanzados que incluyan una supervisión estricta y después de generar confianza
en que los riesgos que surgen de su implementación son manejables.

Pausa en el
desarrollo

“Por lo tanto, hacemos un llamado a
todos los laboratorios de IA para que pausen de inmediato durante al menos 6
meses el entrenamiento de los sistemas de IA más potentes que GPT-4.

«Esta pausa debe ser pública y
verificable, e incluir a todos los actores clave. Si tal pausa no se puede
promulgar rápidamente, los gobiernos deben intervenir e instituir una
moratoria».

Durante esta pausa, los equipos de
desarrollo de IA tendrán la oportunidad de reunirse y acordar establecer
protocolos de seguridad que luego se utilizarán para auditorías de cumplimiento
realizadas por expertos externos e independientes.

Además, los formuladores de políticas
deberían implementar medidas de protección, como un sistema de marca de agua
que diferencie efectivamente entre contenido auténtico y automatizado, que
permita la asignación de responsabilidad por daños causados ​​por materiales
generados por IA e investigación financiada con fondos públicos sobre los
riesgos de la IA.

La carta no aboga por detener por
completo el desarrollo de la IA; en cambio, subraya los peligros asociados con
la competencia prevaleciente entre los diseñadores de IA que compiten por
asegurar una parte del mercado en rápida expansión.

«La humanidad puede disfrutar de
un futuro floreciente con la IA. Habiendo tenido éxito en la creación de
poderosos sistemas de IA, ahora podemos disfrutar de un ‘verano de IA’ en el
que cosechamos las recompensas, diseñamos estos sistemas para el claro
beneficio de todos y damos a la sociedad la oportunidad de adaptarse».

5 tecnologías de IA que los hackers pueden usar de formas terriblemente nuevas

¿Qué opinas de esta carta? ¿Estás de
acuerdo en las peticiones?

Deja un comentario