Una nueva solución a la paradoja de Fermi sugiere que el gran filtro ya casi está aquí
Un astrónomo ha sugerido una nueva solución a la paradoja de Fermi, que implica que el «gran filtro» todavía puede estar en nuestro futuro próximo.
Primero, un poco de historia. Con 200 mil millones de billones (más o menos) de estrellas en el universo y 13,7 mil millones de años que han transcurrido desde que todo comenzó, quizás te preguntes dónde están todas las civilizaciones alienígenas. Esta es la pregunta básica detrás de la paradoja de Fermi, la tensión entre nuestras sospechas sobre el potencial de vida en el universo (dados los planetas que se encuentran en zonas habitables, etc.) y el hecho de que sólo hemos encontrado un planeta con una especie inteligente (más o menos). habitarlo.
Una solución, o al menos una forma de pensar sobre el problema, se conoce como el Gran Filtro. Propuesto por Robin Hanson del Instituto del Futuro de la Humanidad de la Universidad de Oxford, el argumento es que, dada la falta de civilizaciones extraterrestres tecnológicamente avanzadas observadas, debe haber una gran barrera para el desarrollo de la vida o la civilización que les impida llegar a una etapa en la que están provocando impactos grandes y detectables en su entorno que podemos presenciar desde la Tierra.
Podría haber otras razones por las que aún no hemos tenido noticias de los extraterrestres, desde que simplemente no escuchamos durante el tiempo suficiente (o no buscamos las señales correctas de los extraterrestres, debido a nuestra inmadurez tecnológica) hasta que los extraterrestres nos mantienen deliberadamente en un zoológico galáctico. . Pero si la idea del Gran Filtro es correcta, no sabemos en qué punto nos encontramos.
Puede ser que el filtro llegue antes, como que sea realmente difícil dar el salto de vida unicelular a vida compleja, o de animales complejos a inteligentes. Sin embargo, podría ser que el Gran Filtro esté delante de nosotros, impidiendo que nos convirtamos en una civilización que explore galaxias. Podría ser, por ejemplo, que las civilizaciones inevitablemente descubran una manera de destruirse a sí mismas (como las bombas nucleares) antes de estar lo suficientemente avanzadas como para convertirse en una especie multiplanetaria.
En un nuevo artículo, Michael Garrett, catedrático de Astrofísica Sir Bernard Lovell en la Universidad de Manchester y director del Centro de Astrofísica Jodrell Bank, describe cómo el surgimiento de la inteligencia artificial (IA) podría conducir a la destrucción de civilizaciones extraterrestres.
«Incluso antes de que la IA se vuelva superinteligente y potencialmente autónoma, es probable que grupos competidores dentro de civilizaciones biológicas la utilicen como arma y busquen superarse entre sí», escribe Garrett en el artículo. «La rapidez de los procesos de toma de decisiones de la IA podría intensificar los conflictos en formas que superan con creces las intenciones originales. En esta etapa del desarrollo de la IA, es posible que la integración generalizada de la IA en los sistemas de armas autónomos y los procesos de toma de decisiones de defensa en tiempo real podría conducir a un incidente calamitoso como una guerra termonuclear global, precipitando la desaparición de civilizaciones técnicas tanto artificiales como biológicas».
Cuando la IA conduzca a la Superinteligencia Artificial (ASI), la situación podría empeorar mucho.
«Al alcanzar una singularidad tecnológica, los sistemas ASI superarán rápidamente la inteligencia biológica y evolucionarán a un ritmo que supera por completo los mecanismos de supervisión tradicionales, lo que conducirá a consecuencias imprevistas y no deseadas que es poco probable que estén alineadas con los intereses o la ética biológicos», continúa Garrett. «La practicidad de sustentar entidades biológicas, con sus amplias necesidades de recursos, como energía y espacio, puede no ser atractiva para una ASI centrada en la eficiencia computacional, viéndolas potencialmente como una molestia en lugar de beneficiosa. Una ASI podría eliminar rápidamente su civilización biológica madre. de diversas maneras, por ejemplo, diseñando y liberando un virus altamente infeccioso y mortal en el medio ambiente».
Las civilizaciones podrían mitigar este riesgo expandiéndose y probando la IA (o viviendo con ella) en otros planetas o puestos de avanzada. Una ventaja de esto sería que la civilización extraterrestre podría observar el progreso en estos planetas y recibir advertencias sobre los riesgos. Si la IA de repente comenzara a destruir el planeta en su incesante búsqueda de producir clips, por ejemplo, otro planeta observador podría conocer ese posible resultado y tomar medidas para evitarlo.
Sin embargo, Garrett señala que en la Tierra estamos avanzando mucho más rápidamente hacia la IA y la ASI que hacia la conversión en una especie multiplanetaria. Esto tiene que ver con la escala del desafío involucrado, ya que la exploración espacial requiere cantidades increíbles de energía, avances materiales y superar los duros entornos que se encuentran en el espacio. Mientras tanto, los avances en IA dependen del aumento del poder de procesamiento y almacenamiento de datos, lo que parece que estamos haciendo de manera constante.
Según Garrett, si otras civilizaciones están siguiendo el camino que parecemos seguir nosotros, tal vez contando con la ayuda de la IA con los desafíos de volverse interplanetarias, es probable que ocurran calamidades con la IA antes de que puedan establecerse en otras partes de sus sistemas solares/galaxias. Garrett estima que la vida útil de las civilizaciones, una vez que adoptan la IA de forma generalizada, es de entre 100 y 200 años, lo que ofrece muy pocas oportunidades de contacto o envío de señales a otros extraterrestres. Esto haría que nuestras posibilidades de encontrar dicha señal fueran bastante escasas.
«Si ASI limita la vida comunicativa de las civilizaciones avanzadas a unos pocos cientos de años, entonces sólo un puñado de civilizaciones comunicantes probablemente estarán presentes simultáneamente en la Vía Láctea», concluye Garrett. «Esto no es inconsistente con los resultados nulos obtenidos de las encuestas SETI actuales y otros esfuerzos para detectar tecnofirmas en todo el espectro electromagnético».
Podría volverse aún más sombrío, ya que implica que el Gran Filtro (nuestra propia destrucción antes de que seamos maduros tecnológicamente) puede estar todavía delante de nosotros, en lugar de en nuestro pasado.
El artículo se publica en la revista Acta Astronautica.