Potrebbe l’intelligenza artificiale essere il “Gran Filtro” che crea civiltà rare come la nostra nell’universo?

La superintelligenza artificiale potrebbe rappresentare un filtro che impedisce alle civiltà biologiche avanzate di sopravvivere e diventare multiplanetarie. Questo potrebbe anche spiegare perché non siamo stati contattati: le IA capaci di viaggi interstellari non sarebbero interessate a parlare con esseri biologici inferiori.

Intelligenza artificiale.

Credito: MysteryPlanet.com.ar.

L’intelligenza artificiale (AI) sta facendo sentire la sua presenza in mille modi diversi. Aiutare gli scienziati a dare un senso a grandi quantità di dati; rileva le frodi finanziarie; guidare le nostre auto; suggerirci la musica; I tuoi chatbot non vanno da nessuna parte. Y è appena iniziato.

Siamo in grado di comprendere quanto velocemente l’intelligenza artificiale continuerà a svilupparsi? E se la risposta è no, si tratta del cosiddetto “Gran Filtro”?

Cos’è il filtro Gran?

Il paradosso di Fermi è la discrepanza tra l’apparente alta probabilità che esistano civiltà avanzate e la totale mancanza di prove che esistano effettivamente. Ho proposto molte soluzioni per spiegare perché esiste questa discrepanza. Una delle idee è il Gran Filtro.

Il Gran Filtro è un evento o una situazione ipotetica che impedisce alla vita intelligente di spostarsi interplanetaria e interstellare e porta addirittura alla sua scomparsa. Alcuni esempi potrebbero essere il cambiamento climatico, la guerra nucleare, l’impatto di asteroidi, le esplosioni di supernova, le pestilenze o qualsiasi altro evento apocalittico.

Superintelligenza artificiale

Un nuovo articolo en Acta Astronautica esplora l’idea che l’intelligenza artificiale diventi un superintelligenza artificiale (AIS) e che la SIA è il Gran Filtro. Il suo autore è Michael Garrett del Dipartimento di Fisica e Astronomia dell’Università di Manchester, il quale ritiene che una specie stia intraprendendo una carriera contro il tempo senza un pianeta che la sostenga.

«Si propone che questo filtro emerga prima che queste civiltà possano sviluppare un’esistenza multiplanetaria stabile, il che suggerisce che la longevità tipica (L) di una civiltà tecnica è inferiore a 200 anni», scrive Garrett.

Se questo è vero, potrebbe spiegare perché non abbiamo rilevato aziende tecnologiche o altre prove di ETI (Intelligenza Extraterrestre). È all’interno di questo limite che l’autore evidenzia la «necessità fondamentale di stabilire rapidamente quadri normativi per lo sviluppo dell’intelligenza artificiale nella Terra e il progresso di una società multiplanetaria per mitigare queste minacce esistenziali».

Stephen Hawking era un grande sostenitore della colonizzazione di altri mondi, principalmente per garantire che l’umanità non si estinguesse. Negli anni successivi, gli scienziati riconobbero che l’intelligenza artificiale poteva rappresentare una minaccia all’estinzione. Credito: educationhumanity.com.

Molti scienziati e pensatori affermano che siamo sull’orlo di un’enorme trasformazione. Ad esempio, sembra essere pronto a eliminare posti di lavoro per milioni di persone e, se combinato con la robotica, la trasformazione sembra quasi illimitata. Questa è una preoccupazione abbastanza ovvia.

Ma ci sono preoccupazioni più profonde e sistematiche. Chi scrive gli algoritmi? L’IA discriminerà in qualche modo? (Casi di sicuro). Gli algoritmi competenti mineranno le società democratiche predominanti? Le aziende aperte continueranno ad essere aperte? L’intelligenza artificiale inizierà a prendere decisioni per noi e chi sarà responsabile se lo farà?

“La preoccupazione che la SIA possa eventualmente diventare pericolosa è considerata un problema importante: combattere questa possibilità nei prossimi anni è una ricerca di crescita per i leader del settore”, Señala Garrett.

IA universali

Se l’intelligenza artificiale non apportasse benefici, il problema sarebbe molto più semplice. Ma offre tutti i tipi di vantaggi, dal miglioramento delle immagini mediche e della diagnostica a sistemi di trasporto più sicuri. Il trucco per i governi è quello di consentire ai benefici di prosperare limitando i danni.

“Ciò è particolarmente vero in settori come la sicurezza e la difesa nazionale, dove lo sviluppo responsabile ed etico dovrebbe essere fondamentale”, scrive Garrett.

L’intelligenza artificiale “sembra pronta a eliminare posti di lavoro per milioni di persone e, se combinata con la robotica, la trasformazione sembra quasi illimitata”. Credito: MysteryPlanet.com.ar.

Il problema è che i nostri governi e i nostri governi non sono preparati. Non è mai esistito nulla di simile all’intelligenza artificiale e, non importa come proviamo a concettualizzarla e a comprenderne la traiettoria, ci manca sempre qualcosa. E se siamo in questa posizione, ci sarà anche qualsiasi altra specie biologica che si svilupperà. L’avvento di IA e SIA potrebbe essere universale, il che lo rende candidato al Gran Filtro.

Questo è il rischio che SIA semina in concreto: non ha bisogno della vita biologica che crea.

«Raggiungendo la singolarità tecnologica, i sistemi SIA supereranno rapidamente l’intelligenza biologica e si evolveranno a un ritmo che supera completamente i meccanismi di supervisione tradizionali, il che porta a conseguenze impreviste e indesiderate che probabilmente non sono in linea con gli interessi biologici o etici», spiega Garrett.

Come può la SIA liberarsi dalla fastidiosa vita biologica che le sfugge? Potrebbe innescare un virus mortale, potrebbe inibire la produzione e la distribuzione di alimenti agricoli, potrebbe causare il collasso di un impianto di energia nucleare e potrebbe scatenare guerre. Non lo sappiamo davvero perché è tutto territorio inesplorato. Da anni ormai i cartografi disegnano mostri nelle regioni inesplorate del mondo, e questo è l’ultimo di quello che stiamo facendo adesso.

Questa è una parte della mappa Carta Marina dell’anno 1539. Mostra mostri che sorgono nelle acque sconosciute di fronte alla Scandinavia. I timori sulla SIA sono qualcosa del genere? Il SIA potrebbe essere il Grande Filtro? Credito: Olaus Magnus.

L’importanza di essere multiplanetari

Se tutto è così straziante e inevitabile, Garrett dice che non lo è.

La sua analisi finora si basa sul SIA e sugli esseri umani che occupano lo stesso spazio. Ma se riusciamo a raggiungere uno stato multiplanetario, la prospettiva cambia.

“Ad esempio, una specie biologica multiplanetaria potrebbe trarre vantaggio da esperienze indipendenti su diversi pianeti, diversificando le proprie strategie di sopravvivenza ed eventualmente evitando di cadere da un unico punto in cui si trova di fronte una civiltà limitata a un pianeta”, sostiene Garrett.

La Tierra, la nostra unica casa fino ad ora, vista dal satellite ambientale operativo geostazionario (GOES-16) durante l’eclissi solare totale dell’8 aprile 2024. Credito: ESA (Dati: NOAA).

Se riusciamo a distribuire il rischio tra diversi pianeti attorno a più stelle, possiamo proteggerci dai peggiori risultati possibili della SIA.

«Questo modello di esistenza distribuito aumenta la resilienza di una civiltà biologica alle catastrofi indotte dall’IA creando ridondanza», dice l’autore dello studio. «Se uno dei pianeti o delle forze che occuperanno i futuri umani non può sopravvivere alla singolarità tecnologica di SIA, altri possono sopravvivere. E avrebbero imparato da lui”.

Lo stato multiplanetario potrebbe anche fare di più che semplicemente sopravvivere alla SIA. Potresti aiutarci a dominarlo. Garrett immagina situazioni in cui possiamo sperimentare più profondamente con l’intelligenza artificiale mentre ci teniamo confinati, ad esempio, su un asteroide o su un pianeta isolato, svolgendo il nostro lavoro senza accesso alle risorse necessarie per fuggire dalla sua prigione.

“Permette ambienti isolati in cui gli effetti dell’intelligenza artificiale avanzata possono essere studiati senza il rischio immediato di annientamento globale”, propone Garrett.

Rappresentazione artistica di un’astronave SpaceX che atterra su Marte. Se riusciamo a diventare una specie multiplanetaria, la minaccia della SIA si ridurrà. Credito: SpaceX.

Ma ecco il dilemma. Lo sviluppo dell’intelligenza artificiale sta avanzando a un ritmo accelerato, anche se i nostri tentativi di convertirci in multiplanetari sono ancora in corso. «La disparità tra il rapido progresso dell’intelligenza artificiale e il progresso più lento della tecnologia spaziale è evidente», sottolinea.

La differenza è che l’intelligenza artificiale è computazionale e informativa, ma i viaggi spaziali contengono molteplici ostacoli fisici che non sappiamo ancora come superare. La nostra stessa natura biologica limita i viaggi nello spazio, ma non esiste un ostacolo del genere per l’intelligenza artificiale.

«Mentre l’intelligenza artificiale può teoricamente migliorare le proprie capacità senza limitazioni fisiche, i viaggi spaziali devono affrontare limiti energetici, frontiere della scienza dei materiali e la dura realtà dell’ambiente spaziale», spiega l’astronomo.

Dilemma

Per ora, l’intelligenza artificiale opera entro i limiti che abbiamo stabilito. Ma potrebbe non essere sempre così. Non sappiamo quando l’AI potrebbe diventare SIA e nemmeno se lo sarà. Ma non possiamo ignorare questa possibilità. Ciò porta a due conclusioni intrecciate.

Se Garrett è al sicuro, l’umanità deve lavorare con maggiore diligenza sui viaggi spaziali. Può sembrare un’idea folle, ma chi la conosce sa che è vero: la Tierra non sarà abitabile per sempre. L’umanità qui perirà per mano nostra o per mano della natura se non ci espandiamo nello spazio. La stima di 200 anni di vita in più per le civiltà che solo nella metropolitana hanno raggiunto il nostro attuale livello tecnologico. Una rinnovata enfasi sul raggiungimento della Luna e di Marte offre qualche speranza.

La seconda conclusione si riferisce alla legislazione e alla governance dell’IA, un compito difficile in un mondo in cui gli psicopatici possono prendere il controllo delle nazioni e sono impegnati a combattere le guerre.

L’estinzione dei grandi animali sauri 66 milioni di anni fa è un avvertimento di un evento catastrofico che potrebbe porre fine alla nostra civiltà se non diventiamo multiplanetari. Vale anche la pena sottolineare che attualmente le agenzie spaziali come la NASA stanno lavorando su piani e strategie per prevenirlo.

«Se gli stakeholder del settore, i responsabili della formulazione delle politiche, i singoli esperti e i loro governi avvertono che la regolamentazione è necessaria, stabilire un quadro normativo che possa essere accettabile a livello globale sarà una sfida», scrive Garrett. «Le dispute interne all’umanità rendono tutto ancora più ingestibile. Inoltre, indipendentemente dalla rapidità con cui sviluppiamo le nostre agende, la SIA potrebbe cambiare più velocemente».

«Senza regolamentazioni pratiche, ci sono ragioni per credere che l’intelligenza artificiale potrebbe rappresentare una minaccia importante per il futuro corso della nostra civiltà tecnica, così come di tutte le civiltà tecniche», añade.

Gran parte delle speranze e dei sogni dell’umanità si cristallizzano attorno al paradosso di Fermi e al Gran Filtro. Esistono altre civiltà? Siamo nella stessa situazione degli altri ETI? La nostra specie lascerà la Terra? Riusciremo a superare le tante difficoltà che dobbiamo affrontare? Sopravviveremo?

Alcuni scientifici, nel ruolo di Avi Loeb, suggeriscono che gli UFO potrebbero essere presidiati da IA ​​extraterrestri che stanno aspettando che le IA terrestri raggiungano un certo livello per entrare in contatto. Credito: MysteryPlanet.com.ar.

Se lo facessimo, potremmo ridurci a ciò che potrebbe sembrare noioso e quotidiano: occuparci di legislazione.

«La persistenza della vita intelligente e cosciente nell’universo potrebbe dipendere dall’attuazione tempestiva ed efficace di tali misure normative internazionali e sforzi tecnologici», conclude l’autore.

Fonte: UT. Edizione: deputato.

Lascia un commento