¿Detener el desarrollo de la IA? Elon Musk y otros líderes tecnológicos hacen un llamado audaz para repensar el futuro de la inteligencia artificial

Más de 2.600 líderes tecnológicos e investigadores firman una carta abierta advirtiendo sobre los "profundos riesgos para la sociedad y la humanidad" que podría conllevar el desarrollo acelerado de la inteligencia artificial avanzada.

El CEO de Tesla, Elon Musk, el cofundador de Apple, Steve Wozniak, y otros destacados ejecutivos y científicos de IA, se encuentran entre los firmantes de la carta publicada por el grupo de reflexión estadounidense Future of Life Institute (FOLI). La carta insta a las empresas de IA a detener temporalmente el entrenamiento de sistemas más potentes que la GPT-4 durante al menos seis meses.

Según los autores, la IA avanzada podría generar cambios profundos en la historia de la Tierra y debería ser gestionada con el cuidado y los recursos correspondientes. La versión más reciente del chatbot de OpenAI, GPT-4, lanzado en marzo, ha superado algunos de los exámenes más rigurosos de EE.UU. y se cree que es diez veces más avanzado que la versión original de ChatGPT.

La carrera por desarrollar inteligencia artificial cada vez más avanzada está fuera de control y podría poner en peligro la existencia de la humanidad, según el think tank estadounidense Future of Life Institute (FOLI). Más de 2600 líderes tecnológicos e investigadores, incluyendo a Elon Musk y Steve Wozniak, han firmado una petición instando a una pausa temporal en el desarrollo de la IA.

La FOLI argumenta que las máquinas podrían inundar los canales de información con propaganda y falsedad, y que la automatización de todas las oportunidades de empleo podría ser un resultado perjudicial. La preocupación más profunda de la FOLI es que las mentes no humanas, desarrolladas por empresas de IA, podrían superar a los humanos en número, inteligencia y reemplazo, lo que pondría en riesgo el control de nuestra civilización.

Por ello, la FOLI exige que se realice una revisión independiente antes de entrenar futuros sistemas de IA y que las decisiones en torno a la IA no sean delegadas a líderes tecnológicos no elegidos.

A pesar de que muchos líderes tecnológicos han firmado una petición para detener el desarrollo de la inteligencia artificial (IA), no todos los expertos en el campo están de acuerdo. Ben Goertzel, director general de SingularityNET, explicó en Twitter que los modelos de aprendizaje del lenguaje (LLM) no se convertirán en inteligencias artificiales generales (AGI), y sugirió que la investigación y el desarrollo deberían ralentizarse en áreas más peligrosas, como las armas biológicas y nucleares.

Afirmó que una IA más avanzada y ocupando empleos humanos sería algo positivo para la sociedad, reduciendo la banalidad y aumentando la colaboración entre humanos y máquinas. Sin embargo, hay preocupaciones en torno a la tecnología deepfake basada en IA, que se ha utilizado para crear imágenes, audio y video convincentes, lo que ha causado cierta preocupación con respecto a los derechos de autor. El CEO de Galaxy Digital, Mike Novogratz, ha cuestionado por qué hay tanta atención regulatoria en las criptomonedas, mientras que la IA ha sido ignorada.

Por otro lado, FOLI ha defendido la necesidad de una pausa en el desarrollo de la IA, y si esta no se promulga rápidamente, se deben implementar moratorias gubernamentales. FOLI teme que la IA pueda amenazar la existencia humana si se desarrolla sin restricciones, y pide que los gobiernos intervengan en caso de que la pausa no se lleve a cabo. Además, FOLI apoya la sugerencia de Sam Altman de exigir una revisión independiente antes de entrenar sistemas de IA futuros, en particular para robots de inteligencia general y superinteligencia artificial.

Jhonaikel Guglielmelli

Ingeniero de Telecomunicaciones multilingue. Aficionado por la locución y diseño gráfico/web. Youtuber en crecimiento. El hacking ético y seguridad informática es mi pasión. Dejo volar mi mente al escribir historias atrayentes. Me gustan mucho las series, viajar y conocer lugares impensables.