[0:18]nel primo momento, è un è una inspiring speech, ma in realtà è un inspiring interview. È è stato protagonista anche sul nostro Sky TG24 spesso con un programma condotto dal mio direttore Giuseppe De Bellis proprio sull'intelligenza artificiale.
[0:37]La cosa interessante oggi è che ci concentreremo sull'aspetto etico, sostenibile dell'intelligenza artificiale, di cui forse si parla sempre troppo poco.
[0:47]E quindi, fatemelo presentare, insomma, bene, di modo che non manchi nulla, Luciano Floridi, professore e direttore del Digital Ethics Center dell'Università di Yale, professore di Sociologia della Cultura e della Comunicazione all'Università di Bologna e intervistato dal mio direttore Giuseppe De Bellis.
[1:19]Si sente? Sì, adesso si sente. No, ci ci portano gli sgabelli, eccoli qua. Il professore pigro. Buongiorno a tutti di nuovo. Grazie.
[1:43]un ringraziamento lo tengo io, va, così che dici? Faccio faccio anche il regista così. Allora, benvenuti, è in fiducia questa, eh? Il professore che dà il telecomando, nel senso. Allora, Luciano Floridi è stato prima presentato da Mariangela Pira e è una delle menti più brillanti del pensiero contemporaneo.
[2:08]Lo dico io così non non è costretto a dirlo lui, è lui non lo vuole dire, ma è è davvero così. È un privilegio poter chiacchierare con lui e è uno dei più brillanti pensatori proprio sul tema che stiamo per affrontare, quello dell'intelligenza artificiale.
[2:25]Se ne parla ovunque, se ne parla bene e a volte se ne parla male, se ne parla con competenza, ogni tanto con meno competenza. Noi oggi proviamo ad approfondire due aspetti, ovvero la nostra chiacchierata si concentra sull'etica e la sostenibilità e partirei, professore, proprio dalla dall'etica.
[2:50]Allora, abbiamo sentito, abbiamo letto, ormai siamo inondati di tanti contenuti che mettono anche in dubbio, diciamo, il futuro del nostro rapporto con l'etica e quindi il nostro pensiero etico.
[3:07]Allora, la prima la prima domanda che ti faccio è esiste un'etica dell'intelligenza artificiale?
[3:16]Grazie per la domanda, grazie per l'invito. Stavo cercando di ricordare quand'è stata la scorsa volta che eravamo qui e la memoria è ovviamente quella che è, quindi sono contento di tornare.
[3:33]Allora, quando si inizia da una piccola storiella, tanti, tanti anni fa, lavorando con le solite aziende, Google, Microsoft, eccetera. Allora, c'era questa cosa. Non non non è più così, ma fate conto, un circa 10 anni fa. Dice, guardi professore, va benissimo, adesso entriamo in sala, ci sono tutti quanti, insomma, i dirigenti. Mi raccomando, dobbiamo parlare di questi temi, però non usi la parola etica.
[3:58]Va valori, impegno, aspetti morali, impatto. Come vuole, ma mi raccomando, non usi etica. E perché che che è l'unica parola che in realtà andrebbe. È perché sa, appena arriva etica, tutti pensano che cosa non bisogna fare. Non fare questo, non fare quello, non correre con le forbici nel corridoio, cioè eccetera, eccetera. Insomma, ricorda, memorie un po' giovanili.
[4:26]E quindi, per molti anni, non abbiamo parlato di etica perché e c'abbiamo lavorato intorno. L'etica poi, in realtà, è esattamente quello che tutti sappiamo, cioè quello che non bisogna fare e quello che sarebbe meglio fare.
[4:42]Nel caso dell'intelligenza artificiale arriviamo subito al punto in un altro paio di passi intorno al 2017, cioè 2017, quando poi, in realtà, i cosiddetti Transformers, che sono una delle componenti che hanno trasformato la vecchia intelligenza artificiale in quella nuova, cioè quella vecchia era logica matematica, quella nuova è statistica, abbiamo cominciato a parlare dell'impatto.
[5:05]L'impatto generato da questa nuova forma di tecnologia. Impatto vuol dire incertezza, incapacità al momento della nostra cultura, della nostra società di capire dove vogliamo andare, in che società vogliamo vivere, in che business vogliamo operare e quindi, questioni profonde di etica.
[5:22]Dicevamo, e vi assicuro che, come si dice in inglese, tutti e i loro zii, and his uncle, hanno cominciato a lavorare sull'etica dell'intelligenza artificiale. Una famosissima azienda, questa però non la possiamo menzionare perché sarebbe poco gentile, chiama e fa, senta professore, guarda abbiamo bisogno dei nostri principi etici. Io dico, guarda, non vi preoccupate, sottoscrivete a quelli della OECD, esistono già.
[5:45]E no, veramente servono i nostri. Ma sono quattro o cinque principi. E sì, ma lo dobbiamo dire con le parole nostre, così sono i nostri principi. E fate i vostri principi. A un certo punto, nel giro di due o tre anni, e arriviamo al 2020, praticamente ognuna ogni agenzia, unità aveva i suoi principi. C'è un sito web che raccoglie le liste di principi etici sull'intelligenza artificiale e siamo arrivati a 150. Ovviamente quelle sono le quattro parole e basta dirlo in maniera abbastanza semplice.
[6:19]Allora, perché questo lavoro è stato utile? Perché ha creato il fondamento per la legislazione, cosa di cui poi se ho capito bene parliamo tra un po'. Ci siamo quasi arrivati alla fine di questa storia. Allora, non ne parliamo. Ne parliamo, ma ognuno vuole il suo. Cioè la stessa, tra l'altro, la stessa società che mi ha detto mi raccomando, non parli di etica. Qualche anno dopo, no, mi serve la mia etica, mica che posso avere l'etica anche dell'altra che cos'è che mi distingue, se no. E oggi sentire persone parlare di principi etici, bisogna avere i principi etici dell'intelligenza artificiale.
[6:54]È buongiorno anche a te. Sono passati 10 anni. No, non c'è più bisogno. L'abbiamo fatto quel lavoro. Ci sono cose che tu devi fare a un certo punto e poi a un altro punto, quelle cose le hai fatte e sei andato avanti. Ergo, oggi abbiamo una legislazione che è l'AI Act, che se voi ve lo ve lo sconsiglio, ma se lo andate a leggere, all'inizio c'è una componente lo so perché una componente Cioè c'è del sangue lì dentro. E tanto adesso ne parliamo per Poi ne parliamo, cioè, voglio dire, lo stiamo registrando, speriamo di no, ma insomma, non è proprio sai quella cosa che la sera stasera leggiamo l'AI Act. Neanche Gasman per i meno giovani. Allora, legge all'inizio e c'è tutta una componente di quadro etico che abbiamo fatto noi in Europa.
[7:46]Cioè, noi 10 anni fa, grosso modo, abbiamo deciso di fare un dibattito. L'abbiamo messo su un gruppo di alto livello degli esperti, incluso il sottoscritto. Abbiamo creato il framework etico per il lancio della legislazione. Poi siamo andati avanti, abbiamo fatto la legislazione. Ergo, oggi l'etica, come la pensano alcuni, magari qualche in qualche, diciamo, struttura un po' conservatrice, in zona romana, che ne so, così. Ecco. Sono rimasti come se nulla fosse accaduto negli scorsi 10 anni.
[8:19]Ma molto è avvenuto. E allora chiudo qua, scusate, la domanda era lunga, complessa. Oggi, allora, basta con l'etica. No. Ovviamente l'etica serve, magari ne riparliamo un'altra tra un attimo, ma non serve per fare i principi che abbiamo fatto, serve per capire uno, come interpretare l'AI Act, perché è pieno di buchi e di interpretazioni e di grigio e come fai a capire se va di qua o se va di là, se non con un'interpretazione di quello che è la società in cui vorresti vivere, come vorresti gestire il tuo business.
[8:47]Due, se lo dobbiamo riformare, su quale base, sempre su principi etici che di cui ha bisogno. E tre, quando ci saranno questioni brutali che finiranno, questo spero sia registrato tra un po', finiranno alla Corte Suprema di giustizia Europea, perché qualcuno interpreterà l'AI Act in un modo, qualcuno in un altro, si andrà a litigare, girano miliardi, ergo si arriva all'ultimo livello, all'ultimo livello, il giudice. Quando deve giudicare sulla legge, sulla base di che cosa lo fa, se non sulla base di principi etici. Allora, la vecchia etica l'abbiamo fatta.
[9:21]Chiudete. Smettete di farla. Avrete sentito le Nazioni Unite stabiliscono un nuovo gruppo per i principi etici. Ma buongiorno anche a voi. Cioè, l'abbiamo già fatti. Non ce n'è bisogno. Vi assicuro che quando usciranno queste questi bei report, hanno quasi sanno a metà strada, altri sei mesi, quello, scommessa qua, eh? Si leggerà come un bel pezzo scritto da Chat GPT.
[9:47]Non fare questo, non fare quell'altro, bisogna fare la sostenibilità. Volete volete bene, cioè non litigate, eccetera, eccetera. E che volete che dica? Cioè, un gruppeto di gente che deve dire cose che vanno bene a tutti a livello di Nazioni Unite. Lavoro fatto.
[10:01]Stessa cosa per altre iniziative correnti in zona romana. Oggi, bisogna invece lavorare su come andiamo a leggere l'AI Act e magari su questo poi ne discutiamo anche da un punto di vista aziendale, come andiamo a migliorarlo e che cosa succederà quando litigheremo su come l'abbiamo interpretato.
[10:18]E allora parliamo proprio perché dall'etica alle regole il passaggio può essere lunghissimo o brevissimo. Diciamo che ci ha messo un po' il Parlamento Europeo, però è anche l'unica istituzione sovranazionale che ha deciso di regolare.
[10:36]C'è sempre il grande tema che l'Europa regola iper regola, mentre altri paesi o altri continenti o altri grandi grandi istituzioni internazionali decidono invece di non regolare. L'Europa l'ha fatto.
[10:52]Allora, la domanda semplice è giusto o sbagliato ad averlo fatto? La domanda più complessa è adesso abbiamo 12-18 mesi perché venga, diciamo, diventi operativo. Che cosa prendiamo di buono da queste? Quante sono le pagine? Infinite.
[11:09]Lo vuoi sapere. Quindi, partiamo subito dal dal giudizio giusto o sbagliato ad averlo fatto?
[11:16]No, fatto l'abbiamo fatto bene. Io dico l'abbiamo fatto nel senso noi europei. Ce n'era bisogno. Il mondo lo richiedeva. Abbiamo dato il buon esempio. Tra l'altro, per chi poi vorrà approfondirlo, c'è qualcosa che si chiama il cosiddetto effetto Bruxelles che molti, di nuovo, per siccome ne hanno sentito parlare, chi non sa pazienza, ma chi ne ha sentito parlare dice, beh, adesso avremo l'effetto Bruxelles. No, no, perché l'effetto Bruxelles si applica al manifatturiero. Sul versante legale, eh vuol dire che, siccome le leggi le hai fatte in Europa e tutti si devono adeguare se vogliono fare business con l'Europa a quelle leggi, ergo, tutti si adeguano e a casa loro fanno esattamente la stessa cosa. Perché, siccome mi sono adeguato a quelle leggi, poi che faccio? In Brasile, in Australia, in Canada, faccio diversamente? No, mi adeguo e resto a quel a quel livello. Non è vero, perché nel digitale, in realtà, basta un click per poi fare come ti pare a casa tua e fare come vogliono gli europei a casa degli europei. Quindi, non è come il manifatturiero, per cui, se io il motore del di un di un'automobile lo faccio in un modo in standard europeo, poi che faccio? Quello australiano lo faccio diversamente? È chiaro che lo faccio uguale ovunque. E perché cambiare un motore e un'automobile è un conto, fare un servizio di intelligenza artificiale online oggi da parte di una grande azienda a misura di o temperando alle leggi europee, ma facendo diversamente a casa propria, è una banalità. Lo sappiamo dai tempi del diritto all'oblio che funziona in un modo in Europa, non funziona in quel modo in tutto il resto del mondo. Quindi, sappiatelo. Uno, c'è una cosa che si chiama effetto Bruxelles. Due, qualcuno ne ha sentito parlare e lo applica senza sapere. Tre, non si applica esattamente allo stesso modo. Tuttavia, perché sennò le cose sarebbero semplici, abbiamo un cosiddetto template. Cioè, è vero che l'Europa ha dato l'esempio. Oggi chi deve pensare a una legislazione sull'intelligenza artificiale non ha un campo vuoto, ha qualcosa che si chiama AI Act.
[13:08]Quindi, o perché gli piace, o perché gli dispiace, comunque, cioè, si rapporta, è come avere una ricetta. Cioè, io quella ricetta magari la cambio, magari non mi piace, però almeno una ricetta c'è. È una buona ricetta questa qua? Abbastanza buona. Purtroppo, per arrivare alla firma, come sanno tutte e tutti qui, chiunque ha avuto un dibattito, si alza il livello ogni volta nel dibattito della generalità di quello sul quale ci stiamo mettendo d'accordo, fino a che non arrivi al punto in cui tutti finalmente sono d'accordo. Ora, ovviamente, a volte alle Nazioni Unite la generalità è talmente ampia che è mamma, Croce Rossa, voleva bene, cioè, e quindi è tutto il contrario di tutto. Nel nelle momenti giusti, tu arrivi soltanto a quel minimo di concessione della generalità del testo, affinché tutti lo leggano e dicono, io sono d'accordo, poi io lo leggo così, tu lo leggi colà. E quindi andremo poi a vedere come andrà a finire. Ma che sia una buona legislazione è sicuro. Ci sono due elementi, sempre per farla un po' corta perché il tempo è poco qua.
[14:00]Uno, l'AI Act ha ha avuto un lungo tempo ed è giusto che sia così, perché questi sono pezzi fondamentali dell'architettura legislativa delle dell'Europa. Non è che domani dici, sai, possibile che non ci mettano una settimana, ma se non ci mettiamo d'accordo nel condominio nel giro di un anno, ma vuoi che ti metti d'accordo a livello europeo su una cosa così importante? Quindi, ci vogliono anni. Benissimo. Mentre facevamo questo lavoro era talmente giusto farlo che intanto l'intelligenza artificiale è arrivata, quella statistica Gen Gen AI, quella, insomma, Chat GPT per intenderci. E quindi abbiamo dovuto un po' aggiustarlo. E si vede, è un po' come quelle case in costruzione, in cui qualcuno si era scordato la cucina, dice, la cucina che non l'hai messa la cucina, metti la cucina nel nel. Ecco. E si vede che la cucina in quell'appartamento sta in un posto un po' strano, però c'è la cucina, va bene. Quindi, c'è tutto, però l'architettura è un po' traballante. Perché questo è importante per le aziende e qui è l'unica cosa forse che vi portate a casa. Perché per mettersi d'accordo, il testo l'abbiamo dovuto fare abbastanza flessibile. La flessibilità vuol dire che nel momento in cui ogni paese europeo lo porta a casa, ha un certo margine interpretativo. Questo è importante, perché la competizione all'interno dell'Europa si gestirà in termini di quanto gentilmente o quanto duramente ogni paese interpreterà l'AI Act a casa propria.
[15:34]E già abbiamo già visto che la Francia e la Germania si fanno gli affari loro. La Spagna ha un atteggiamento piuttosto aggressivo, nel senso buono del termine, competitivo e quindi di lettura flessibile per attrarre FDI, no, foreign direct investment, tanto per parlare sul serio, cioè soldi che arrivano da qualche altra parte. E se io devo investire e devo portare qualche miliardo di dollari in Europa, vado nel paese che ha interpretato all'interno dei margini legislativi l'AI Act in maniera flessibile, gentile, accomodante, you're welcome, oppure lì dove si farà muro duro e si dirà, sai che facciamo? A questi di Open AI gli chiudiamo proprio. Li chiudiamo due volte, perché non ci piace come stanno gestendo la privacy. Messaggio ricevuto. Se devo aprire qualcosa vado altrove. Allora, su questo punto, cioè, l'interpretazione flessibile a livello nazionale in Europa dell'AI Act in modo tale da attrarre finanziamenti extra stranieri, perché tu non hai un'industria AI. Ad esempio, in Italia non ce l'abbiamo, di fatto. E quindi te la puoi creare attraendola dall'esterno. Qui si gioca la partita interna. Vedremo i governi cosa faranno. Quindi non è tanto capire, poi magari lo facciamo anche vedere, dove i governi andranno a spendere qualche miliardo che poi sono quattro spiccioli, letteralmente, non per il sottoscritto, ovviamente. E dove, ma chi sarà in grado di capire che la strategia è quanto sono attraente nei confronti del resto del mondo? Essere attraente oggi vuol dire interpretare l'AI Act in maniera molto più flessibile di quanto in realtà non stia avvenendo in certi angoli dell'Europa.
[17:18]Allora, hai parlato, diciamo, di dell'attrattività o della capacità di attrarre investimenti dall'estero. Allora, io prima di che ho altre curiosità, però, visto che abbiamo delle dei numeri, ci provo qualche slide. Adesso vediamo se è quello, eccolo qua, eh, questa qui. Sì. Allora, questa qui, perché ho fatto i compiti così, sapevo che magari avevamo parlato di questi argomenti, ho detto nel dubbio a. Allora, questo è quando le cose andavano abbastanza bene. Questo è un è un è un report un po' datato del 2022. Datato nel senso che voi lo sapete che negli ultimi due anni c'è stata una corsa feroce, cioè, proprio corsa all'oro. Ve ne faccio vedere un'altra slide tra un attimo. Ma qui vedete che l'Europa, che è l'azzurrina, UK, per sapere che cosa fanno dall'altra parte della manica. Mi sono lamentato di Brexit? Non ancora. Questo è il momento giusto. Puoi farlo. Lo faccio adesso, eh? No, perché c'è il momento Brexit del suicidio, cioè, questo ci vuole sempre. Voglio dire, non è proprio sai quella cosa. Allora, questo, così, una nota a latere, casomai qualcuno gli venisse qualche idea strampalata, cioè. Allora, torniamo a noi. Allora, sotto è stato un gran danno per noi, l'uscita della Gran Bretagna per in termini di intelligenza artificiale è stato un enorme danno. Per loro e per noi, perché ovviamente, l'Unione fa la forza, eccetera, eccetera, ma soprattutto perché è un è un sono sono investimenti e competenze. C'è anche quell'università che si chiama Oxford da quelle parti lì, insomma. Vabbè. Quindi, UK, scordatevelo. Comunque, l'Europa e l'America viaggiavano abbastanza allineate. C'era quel bel gap di qualche miliardo sempre in più o in meno, ma fino, come vedete lì giù, al 2020 eravamo grosso modo, non dico allineati, ma stavamo ancora in corsa. Addio. Ce l'avevano staccato, no, in termini di quanto avevano già finanziato. Oh, questi finanziamenti federali, europei, aziende, è tutto dentro, eh. Però, era ancora una cosa ragionevole. La prossima slide, invece, è quando è è finita. Cioè, quando quando vedi qualcuno qui andrà a correre, no? Sai, quasi quasi. E poi vedi che quello parte ed è proprio, cioè, sta giri avanti. Poi comincia, non solo a vederlo, ma te lo vedi dietro, nel senso che t'ha fatto tutto un giro proprio. E ti passa anche da dietro. Ecco. Questa è, in realtà, abbiamo non abbiamo più i dati sul sul sulla Gran Bretagna. Questa è Cina, che vedete in verdino. Arancione, Stati Uniti, l'Europa, per chi sta troppo lontano non la vede, perché sta praticamente vicino al all'asse delle X. E questo questo è è il danno. Questi sono i miliardi di dollari che noi stiamo spendendo in Venture Capital e quindi non sono finanziamenti statali, eh. Questi è quanto l'industria, come sapete benissimo, crede in se stessa. Cioè, quanto il mondo del business crede nel mondo del business e pensa che questo sia il futuro. Allora, questi qui sono dati, tra l'altro, presi da da dall'OCSE, non dal vostro, come dire, primo che capita. E fanno vedere lo stacco. Lo stacco è mostruoso. Allora, questo vuol dire che noi questo gap non lo recuperiamo. Sentite dire, io l'ho sentito dire anche oggi, l'Italia investirà forse forse 1 miliardo di euro.
[21:05]Bruscolini. 1 miliardo di euro oggi l'intelligenza per un paese come l'Italia è niente. La Microsoft e chi di loro ne investe quei 10-15 a giro di boa ogni tanto. E queste sono una delle tante aziende in questo settore. Allora non è che stai uno a due, uno a cinque, stai uno a 100. È chiaro che non stai nella competizione. Ora, questo si può anche accettare, perché, guarda, non non sta allo Stato investire in questo. E va bene, perché non sono autostrade. In fin dei conti l'intelligenza artificiale che investa il mondo dell'industria. Ci sta tutto, perché in fin dei conti, questo è Venture Capital. Mica che è lo non è lo stato federale, eh. Non è Biden che investe tutto questo. Beh, allora però torniamo sull'argomento precedente. Quanto siamo friendly? Cioè, quanto vogliamo essere invitanti nei confronti dell'industria? Perché o l'una o l'altra, o li fai tirare fuori a loro. Li tiri fuori tu? No, li fai tirare fuori a loro. Sì, come? Invitandoli, facendo sì che l'ambiente in cui vanno a operare sia massimamente ospitante, no? Ecco, fare tutti e due male, quello no. Cioè, non spendere e essere un po' fermi e aggressivi nei confronti di questa azienda vuol dire tirarsi fuori dal gioco. Allora, a quel punto, quello che succederà sarà anche noi compreremo semplicemente importeremo tecnologia ogni volta. E qui c'è il lock-in, la dipendenza. I profitti vanno altrove, le tasse non si pagano qua, cioè, tutti i problemi che si comportano quando sei sostanzialmente, tra virgolette, colonizzato, sapendolo. Ora, siccome questa colonizzazione sta avvenendo sotto i nostri occhi e si può fermare, ci sono politiche che si possono implementare per far sì che non si vada in questa direzione, uno vorrebbe vedere un'Europa e poi, nel nostro caso qui, una una Italia consapevole, competente, che sa queste cose e agisce di conseguenza. Ma per questo faccio il filosofo.
[41:59]E di competenze si parlerà nel proseguimento della giornata. Io ringrazio Luciano Floridi. Grazie, Luciano.



