Skip to main content

Tag: tecnologia

Intelligenza artificiale: vantaggi e rischi di una tecnologia che è già presente nelle nostre vite (e a volte non lo sappiamo)

Torniamo a parlare di intelligenza artificiale. L’ultima volta avevamo pubblicato l’intervista a don Fabio Pasqualetti, decano della facoltà di scienze della comunicazione sociale dell’Università pontificia salesiana e consultore del Dicastero per la comunicazione. L’argomento è però oggetto di continui e accesi dibattiti ma anche fonte di parecchia incertezza dovuta per lo più alla marcata disinformazione. E allora quale miglior motivo per un approfondimento, come siamo soliti fare noi di Radio Duomo Senigallia e Vocemisena.it? Ecco qui di seguito la chiacchierata con Mattia Crivellini, direttore di “Fosforo”, la festa della scienza di Senigallia. L’intervista sarà in onda venerdì 21 e sabato 22 febbraio alle ore 13:10 e alle ore 20, mentre domenica 23 è prevista un’ulteriore replica a partire dalle 16:50 (la terza di tre interviste). Dove? Sempre su Radio Duomo Senigallia, ovviamente, sulla frequenza 95.2 FM. L’audio integrale è disponibile anche qui, assieme a un breve testo. Basterà cliccare sul tasto “riproduci” del lettore multimediale che accompagna questo articolo.

E’ in procinto di partire un seminario, un ciclo di tre appuntamenti, “con il nome di “Tech It Easy”, sulle potenzialità di questa intelligenza artificiale.
Sì, racconta la tecnologia in maniera facile dentro il progetto Agorà. E’ capofile il comune di Senigallia con tante associazioni che collaborano. Oggi si parla di un aspetto particolare dell’intelligenza artificiale, quella generativa, quindi la generazione di test, la generazione di immagini, ChatGPT, tutti questi strumenti che ormai sono diventati quotidianità. Fino a qualche tempo fa si parlava di questi strumenti come prodotti. In queste proprie settimane, in questi mesi, stanno diventando delle caratteristiche, sono più pervasivi, incominciano ad essere dentro gli software che già utilizziamo. Se utilizzate Canva per le immagini, dentro Word, dentro i telefoni, dentro gli iPhone da aprile forse arriverà questa fantomatica Apple Intelligence che era stata promessa con l’iPhone 16 e che ancora non è arrivata perché l’Europa protegge molto i cittadini, quindi vuole capire bene cosa accade rispetto a magari una certa deregolamentazione americana. Ecco perché è importante conoscerla e sapere come funziona.

Facciamo un po’ di storia: qual è l’input che ha fatto sviluppare questo prodotto?
Se vogliamo tornare indietro alla nascita di queste idee si torna indietro al 2015, quando Elon Musk discute con Larry Page, fondatore di Google, di come l’umanità potrebbe progredire e come si arriverà a creare un giorno una intelligenza artificiale globale, una AGI, quella che è proprio di Ultron per i fan della Marvel, quella di Terminator, di Skynet, no? Subito dopo Musk fonda OpenAI e vi mette a capo Sam Altman. OpenAI ha forti finanziamenti di Microsoft ma poi Elon Musk viene estromesso, ma fonda una nuova ditta XAI, l’attuale ditta con cui funziona l’intelligenza artificiale dentro Twitter, cioè X. Da tutte queste situazioni arriviamo ai giorni d’oggi a Trump: Elon Musk è al suo fianco, ma alla partenza del nuovo governo Trump c’erano presenti anche Larry Page, c’era OpenAI con Sam Altman, c’era addirittura l’Apple.

E perché?
Qquesto mondo geopolitico ha oggi un’importanza molto strategica in relazione a quello che farà l’America, in relazione all’Europa, ma in relazione anche alla Cina. Di pochi giorni fa l’arrivo di DeepSeek che millantava di fare le stesse cose di OpenAI con una frazione dell’investimento.

Perché millantava?
Perché in Cina le cose non sono così pubbliche. Se tu interroghi DeepSeek, faccio un esempio nel novecento, uno dei fatti più importanti, la piazza Tienanmen e ricorderemo tutti lo studente davanti al carro armato, DeepSeek non risponde. Quindi capisci che è drammatica un’intelligenza artificiale che noi già vediamo essere censurata.

E Chat GPT, OpenAI fanno lo stesso lavoro, nicchiano su alcune domande?
Diciamo che ci sono grossi punti oscuri anche su OpenAI, però non c’è, da quello che sembra a livello di ricerca, una censura così forte su certi temi.

Mattia Crivellini
Mattia Crivellini

Quali sono gli sviluppi, gli utilizzi principali di questa intelligenza artificiale? Poi quali conseguenze, quali repercussioni?
La situazione è complessa; è importante che ognuno di noi segua queste tematiche per farsi un’idea propria e cerchi delle fonti il più possibile attendibili, perché una delle cose che accadono con l’intelligenza artificiale generativa è la grande facilità di creare video in cui dico cose che non ho mai detto, è facile girare il web e incontrare i personaggi famosi che incontrano Gesù Cristo. Oggi una cosa come questa i nostri studenti di scuola la sanno fare. Anche qui a Senigallia questi deepfake oggi sono facilmente rieplicabili.

Dove non si riesce più a capire se è un falso o meno ciò che vediamo o ascoltiamo?
Su tante cose effettivamente è molto più inquietante perché sono suddole e quindi è molto facile creare siti che danno fake news. L’intelligenza artificiale velocizza molto certi processi creativi di testi e di fake news e questo ci deve far tenere le antenne molto dritte. Da un certo punto di vista l’Europa è molto conservativa, questo per noi cittadini europei è molto buono perché siamo più protetti. L’Europa vuole vederci chiaro, appena c’è la GPT è uscito dopo poco è stato bloccato in Europa perché ci devono essere delle garanzie per gli utenti; DeepSeek quella cinese uscita poche settimane fa è stata subito bloccata perché non dava garanzie a livello di privacy.

Possiamo dire che nella pratica quotidiana e nella vita di tutti i giorni in realtà l’intelligenza artificiale è già presente e già in qualche modo viene utilizzata in maniera più o meno consapevole.
Sì, stanno arrivando a essere caratteristiche dei prodotti che già utilizziamo. Sicuramente…

Segui La Voce Misena sui canali social Facebook, Instagram, X e Telegram.

Intelligenza artificiale: dobbiamo averne paura? L’intervista a don Fabio Pasqualetti, esperto di comunicazione sociale

“I social media, che funzionano anche grazie ad algoritmi e sistemi di intelligenza artificiale, stanno procurando danni a livello sociale, politico ed economico. È un territorio in cui non c’è stata regolamentazione: internet è partito come grande utopia di democratizzazione del mondo e libertà di espressione, ma è passato nelle mani delle multinazionali del digitale che fanno i loro interessi. E poi ci sono anche competizioni più complesse come quella feroce sulla ricerca e lo sviluppo dell’intelligenza artificiale tra Stati Uniti e Cina. Chi può fermare cosa?”. Se lo domanda don Fabio Pasqualetti (nella fotografia), decano della Facoltà di Scienze della comunicazione sociale dell’Università pontificia salesiana e consultore del Dicastero per la Comunicazione, all’indomani dell’appello di mille esperti per una moratoria di almeno 6 mesi nell’addestramento dei sistemi avanzati di intelligenza artificiale e della sospensione di ChatGpt in Italia per iniziativa del Garante della privacy.

C’è un rischio reale di arrivare allo “scenario Terminator” in cui l’intelligenza artificiale, dotata di coscienza e capacità cognitive superiori a quelle umane, metterà a rischio la nostra sopravvivenza?
Non deve preoccupare l’intelligenza artificiale, ma i gruppi di potere che la gestiscono. ChatGpt, ad esempio, è un sistema assolutamente stupido di per sé che non sa nemmeno quello che scrive. Ma chi decide cosa fargli fare e cosa no? Come mai, ad esempio, risponde a certe domande e ad altre no? Dobbiamo temere i padroni della Rete, non gli strumenti. Il potere informativo e l’asimmetria di conoscenza di dati che hanno le multinazionali del digitale rispetto a noi utenti, ma anche ai governi, è talmente sproporzionata che risulta difficile ipotizzare una regolamentazione. Per questo lo “scenario Terminator” non ha senso ad oggi. Lo avrà quando andremo a pasticciare con la vita, combinando intelligenza artificiale e ingegneria biogenetica. Allora bisognerà preoccuparsi, perché la vita non la puoi spegnere.

La partita sull’intelligenza artificiale si gioca anche a livello geopolitico. È in ballo la sopravvivenza dei grandi imperi?
È in gioco il futuro delle nazioni, il dominio dei prossimi secoli come potenze economiche, politiche, strategiche. È evidente che la posta è enorme. Tutte le guerre di questi tempi, oltre ad essere per procura, sono anche geopolitiche. L’investimento è imponente: pensiamo ai droni che vengono utilizzati, alle cyberwar che sono in atto. Si tratta di sistemi ad altissima tecnologia. Ci preoccupiamo di scenari irrealizzabili e non vediamo quello che incombe: lo scenario catastrofico è rappresentato dai cambiamenti climatici. Sarebbe bello che l’intelligenza artificiale lavorasse per trovare soluzioni.

Chi è in grado di controllare queste dinamiche?
Ad oggi nessuno. E il danno di sistemi non controllati riguarda soprattutto le nuove generazioni. Continuiamo a dire che i social sono una benedizione e lo sarebbero, se fossero fuori da un contesto economico di competizione finalizzato a fare soldi. Nell’attuale ambiente, invece, i social creano grandi dipendenze, soprattutto nei più fragili e lasciano diffondere fake news o peggio. Pensiamo a Cambridge Analytica, alla Brexit o alle elezioni statunitensi.

È diventata virale in questi giorni la foto di Papa Francesco con un lungo piumino bianco alla moda, prodotta da una start-up che sfrutta l’intelligenza artificiale per creare immagini irreali o fake. Ma è davvero questo l’unico rischio di queste tecnologie?
La diffusione di fake news funziona in maniera proporzionale all’incapacità critica di valutare l’informazione. E la sovrabbondanza di notizie che abbiamo tramite i sistemi digitali e l’affidamento a supporti esterni per la memoria cognitiva stanno indebolendo la nostra capacità di comprendere la realtà. L’iperindividualismo e il narcisismo sociale ci chiudono in noi stessi, ci rendono incapaci di dialogo e di confronto, rendendoci vulnerabili. E quindi più predisposti, ad esempio, a proposte di tipo complottivo e a soluzioni facili. La logica commerciale domina. Siamo in una cultura del tutto facile e immediato. Ma non è così: la vita non è così, la politica non è così.

L’intelligenza artificiale può contribuire a cambiare la comprensione che l’uomo ha di se stesso e del mondo?
L’uomo è techne. Ci umanizziamo attraverso lo sviluppo tecnologico e raccontiamo l’umanità che siamo. Anche la Rete, nel bene e nel male, ci restituisce la nostra umanità. Abbiamo sviluppato così tante bombe atomiche da distruggere il pianeta, ma non abbiamo ancora compreso che siamo passeggeri in un mondo in cui dovremmo prenderci cura gli uni degli altri. C’è uno scarto paradossale: da una parte il progresso scientifico e di conoscenza, dall’altra i deliri di onnipotenza.

Il Papa, ricevendo in udienza i firmatari della “Rome Call for A.I. Ethics”, ha chiesto un “passo significativo” per promuovere un’antropologia digitale con tre coordinate fondamentali: “l’etica, l’educazione e il diritto”.
L’educazione è fondamentale. Eppure don Milani metteva in guardia: per educare bisogna avere idee chiare sulla società e sulla politica, L’educazione non è astratta, si incarna all’interno di valori sociali e umani ben precisi. Quanto all’etica, attenzione a non scaricarla sempre sull’utente. L’etica deve essere progettuale, deve implicare le politiche industriali che portano alla creazione degli oggetti. Molte dipendenze che nascono dai social sono by design, come il feed delle notizie. C’è una volontà non etica, di sfruttamento, che viene esercitata. Non basta il buon uso! Quando una cosa è perversa e chi è esposto non ha una capacità culturale adeguata, si viene presi all’amo. Infine, il diritto va esercitato ma non deve fermarsi alla difesa delle persone: bisogna applicare una regolamentazione che chiami le persone a collaborare nella gestione del bene comune.

a cura di Riccardo Benotti

Registrati sul sito per leggere tutte le notizie e scarica l’app de La Voce Misena l’app da Google Play o da App Store.