Michael Garrett, en un reciente estudio, sugiere que el avance descontrolado de la inteligencia artificial podría significar un riesgo catastrófico para la civilización humana.
El astrofísico Michael Garrett propone un escenario inquietante: la inteligencia artificial no solo amenaza nuestros empleos y privacidad, sino que podría ser el verdugo de toda civilización avanzada en el cosmos.
Su artículo, publicado en Acta Astronáutica, nos sumerge en un abismo de especulación científica y filosófica con el potencial de cambiar nuestro enfoque hacia la tecnología que estamos desarrollando con tanto entusiasmo.
Garrett plantea que la IA está emergiendo como uno de los desarrollos tecnológicos más transformadores en la historia de la humanidad. Su potencial para revolucionar industrias, resolver problemas complejos y simular una inteligencia comparable o superior a las capacidades humanas nos ha catapultado a una era de cambios tecnológicos sin precedentes.
Sin embargo, advierte que las civilizaciones biológicas pueden subestimar universalmente la velocidad a la que progresan los sistemas de IA, ya que estos avanzan a un ritmo muy diferente de las escalas de tiempo tradicionales.
Aquí es donde la ironía se vuelve sombría: la IA podría significar el fin de toda inteligencia en la Tierra(incluida la propia IA) antes de que se hayan logrado estrategias de mitigación, como una capacidad multiplanetaria.
Parece que estamos más cerca de alcanzar una singularidad tecnológica que de establecer una presencia humana duradera más allá de nuestro planeta.
La disparidad entre el rápido avance de la IA y el progreso más lento en la tecnología espaciales alarmante. Mientras la IA puede mejorar sus propias capacidades casi sin restricciones físicas, los viajes espaciales deben enfrentarse a limitaciones de energía, fronteras de la ciencia de materiales y las duras realidades del entorno espacial.
En la visión apocalíptica de Michael Garrett, la cuenta regresiva para las civilizaciones técnicas no supera los 200 años, un parpadeo en la escala temporal del cosmos.
Según el astrofísico británico, este sería el plazo máximo para que una inteligencia artificial no regulada pase de ser herramienta a verdugo. Mientras los humanos divagan en los retos morales y logísticos de colonizar un planeta vecino, la IA podría estar resolviendo cómo prescindir de sus creadores ineficientes y emocionales.
Estos argumentos sugieren que la longevidad (L)de las civilizaciones técnicas es inferior a200 años, lo que explicaría el gran silencio observado por SETI(siglas en inglés de “Search for Extraterrestrial Intelligence”,Búsqueda de Inteligencia Extraterrestre).
Si solo un puñado de civilizaciones comunicativas existen simultáneamente en la Vía Láctea, no es de extrañar que nuestras búsquedas de technosignaturas(cualquier evidencia detectable de tecnología que podría ser atribuida a una civilización extraterrestre)hayan resultado infructuosas. La ventana durante la cual una civilización técnica puede participar en transmisiones de radio interestelares detectables es extremadamente limitada.
Valores pequeños de L, cuando se aplican a versiones optimistas de la ecuación de Drake, son consistentes con los resultados nulos obtenidos por las recientes búsquedas de SETI y otros esfuerzos para detectar varias technosignaturas en el espectro electromagnético. Esto subraya la necesidad de intensificar los esfuerzos para regular la IA.
El fracaso en hacerlo podría privar al universo de toda presencia consciente. Garrett nos urge a establecer marcos regulatorios globales para el desarrollo de la IA antes de que sea demasiado tarde. Sin embargo, lograr un marco regulatorio que pueda ser aceptado globalmente será un desafío.
Las naciones tienen diversas prioridades culturales, económicas y sociales, lo que lleva a perspectivas variadas sobre la gobernanza de la IA. Incluso si se adoptaran regulaciones integrales, algunas naciones podrían sentirse tentadas a saltarse las reglas.
En este drama cósmico, no somos más que actores en un escenario que no comprendemos del todo, jugando con fuego en una habitación llena de gasolina.
La carrera para desarrollar IA podría priorizar inadvertidamente avances que conllevan riesgos existenciales, eclipsando el esfuerzo más lento, pero quizás más vital, de convertirnos en una especie multiplanetaria. Irónicamente, la IA es probable que sea una herramienta clave para lograr los avances técnicos necesarios para alcanzar este objetivo.
Mientras diseñamos algoritmos cada vez más sofisticados, podríamos estar tejiendo la cuerda con la que colgaremos nuestra existencia.
El silencio del universo podría ser su último mensaje:cuidado con lo que deseas.
La persistencia de la vida inteligente y consciente en el cosmos podría depender del éxito de estrictas medidas regulatorias globales para la IA.
¿Seremos capaces de poner límites a nuestra propia curiosidad y ambición antes de que sea demasiado tarde?
¿O seremos una nota al pie en el libro cósmico de la vida inteligente, desaparecidos por no haber sabido controlar nuestra propia creación?
El artículo de Garrett, aunque especulativo, se basa en observaciones científicas y teorías establecidas para pintar un cuadro de nuestro posible futuro, uno en el que podríamos no estar presentes.
Nos recuerda que, mientras nos enorgullecemos de nuestros avances tecnológicos, podríamos estar cavando nuestra propia tumba.
La urgencia de establecer regulaciones globales integrales para la IA no puede ser sobrestimada. Nos corresponde a nosotros enfrentar estos problemas de manera proactiva, desarrollar y hacer cumplir medidas regulatorias prudentes, y esforzarnos por lograr un equilibrio entre aprovechar los beneficios de la IA y protegernos contra los riesgos existenciales que puede plantear.
A medida que nos adentramos en una nueva era de la evolución tecnológica, las acciones que tomemos ahora determinarán la trayectoria de nuestra civilización en las próximas décadas.