COMUNICATO STAMPA – CONTENUTO PROMOZIONALE
“Etiche per l’IA”: chiuso ieri alla Sapienza il Convegno internazionale SIpEIA 2026
Roma, 5 febbraio 2026 | Contribuire alla costruzione di un’IA responsabile e al servizio della persona: è stato questo il tema principale della conferenza internazionale “Etiche per l’IA: sfide, opportunità e prospettive umano-centriche”, conclusasi a Roma eorganizzata da SIpEIA (Società Italiana per l’Etica dell’Intelligenza Artificiale) dopo due intensi giorni in cui sono stati affrontati i problemi etici connessi allo sviluppo dell’IA tra aspetti normativi, sociali, a e di policy.
Importante è stato il contributo delle nuove generazioni di ricercatrici e ricercatori, fondamentali nel guidare il necessario cambiamento culturale e digitale. La conferenza, tra sessioni plenarie e sessioni parallele di approfondimento, ha dimostrato come sia importante unire rigore scientifico e multidisciplinarità, intorno a temi come epistemologia e affidabilità, responsabilità e cura, creatività e immaginario, società e democrazia, educazione e sostenibilità, diritto e governance. Ed è stato veicolato un messaggio chiaro: l’IA deve essere guidata da persone competenti, critiche e consapevoli.
I lavori sono stati aperti dalla Sapienza con Matilde MASTRANGELO, che ha ribadito come l’Intelligenza Artificiale non rappresenti più un ambito distante o specialistico, ma una presenza quotidiana nelle nostre vite sociali, istituzionali e culturali. L’IA incide su informazione, decisioni, lavoro, educazione e pratiche democratiche. Per questo, le sue implicazioni etiche non possono essere considerate marginali: riguardano direttamente le forme di vita che stiamo costruendo insieme. A seguire, l’intervento di Tiziana CATARCI, presidente di SIpEIA, fondata nel 2020 durante la pandemia, che è stata la prima associazione scientifica italiana centrata sui problemi etici sollevati dall’IA. Ha ricordato che la mission dell’Associazione – la promozione dell’uso dell’IA per il bene comune e il progresso sociale, contro ogni concentrazione di potere e nuove forme di esclusione – è piuttosto una sfida collettiva che riguarda tutti. “I nuovi sistemi di IA non sono solo un’evoluzione tecnica, ma un cambiamento che investe il modo stesso in cui pensiamo il rapporto tra tecnologia, conoscenza e società”.
Scendendo nel concreto di una buona applicazione dell’IA, Sanmay DAS (Virginia Tech) ha proposto una riflessione chiave sull’uso dell’Intelligenza Artificiale come strumento di misurazione nei sistemi umani e sociali. La domanda centrale qui non è solo come misuriamo, ma che cosa scegliamo di misurare. L’IA viene usata anche per l’ottimizzazione delle risorse e per l’analisi di preferenze e incentivi, ad esempio nei sistemi di welfare. Ma, come ha ricordato Das, non esistono soluzioni tecniche “magiche”: alla base c’è sempre una scelta umana e politica sugli obiettivi sociali. L’IA può aiutarci a chiarire questi obiettivi, se sappiamo usarla nel modo giusto.
Di AI agentica, opportunità, rischi e responsabilità, ha parlato Francesca ROSSI (IBM): l’AI agentica non si limita a generare risposte, può agire ed eseguire decisioni. Questo porta con sé nuove opportunità, ma anche rischi più elevati: azioni irreversibili, nuove forme di allucinazione, maggiore esposizione a vulnerabilità e disallineamento dei valori non solo nel linguaggio, ma nelle azioni. La sfida centrale diventa così la fiducia, evitando sia l’eccessiva delega sia il rifiuto per paura, garantendo sempre un controllo umano significativo. Il punto chiave è uno: l’AI deve aumentare l’intelligenza umana, non sostituirla. E le aziende hanno una responsabilità diretta nel costruire governance, processi e strumenti per un’AI davvero responsabile.
La seconda giornata ha preso avvio dall’intervento del filosofo Daniel INNERARITY (EUI), su democrazia, governance e impatto politico delle tecnologie e su come le democrazie cambiano nell’era digitale. Lo studioso è profondamente convinto che l’IA non sia solo tecnica o tecnica ed etica, ma una questione profondamente politica. ”Un’IA democratica richiede persone presenti nel suo ciclo di vita in grado di interpretare, contestare, decidere”. Per rendere davvero rappresentative le tecnologie contemporanee è necessario che la diversità dei loro rappresentanti sia quanto più possibile simile alla diversità delle società che intendono servire. Solo in questo modo una tecnologia così potente può essere considerata autenticamente pluralista e democratica.
Ciò è reso difficile dalla concentrazione del potere nelle mani di poche piattaforme che limita la varietà delle prospettive e dalla mancanza di diversità nei sistemi di apprendimento. È inoltre necessario evitare una dipendenza esclusiva dall’ingegneria e da modelli stereotipati orientati unicamente alla massimizzazione. C’è poi una questione di valori, di equilibrio e di responsabilità nella costruzione e ricostruzione dei dataset. La carenza di diversità, ad esempio nei dati facciali, ha già prodotto fenomeni di discriminazione e sistemi di riconoscimento incapaci di considerare adeguatamente le differenze locali e globali. Analogamente, si registra una limitata varietà anche nelle modalità di utilizzo dei servizi digitali. Per rappresentare realmente le nostre volontà collettive, la tecnologia deve riflettere la nostra pluralità. La sovranità, infatti, è costituita proprio da coloro che sono diversi: una comunità politica è tale perché fondata sulla diversità. Infine, Innerarity ha invitato caldamente a considerare tali questioni oggetto di decisioni consapevoli, riconoscendo pienamente la loro esistenza e la necessità di affrontarle.
Mariarosaria TADDEO (Oxford University) ha posto l’accento su un aspetto particolare. Anche se con il rapido avanzamento dell’Intelligenza Artificiale, ci troviamo a porci interrogativi urgenti su come questa tecnologia possa essere utilizzata in modo sicuro ed efficace, in nessun ambito tali questioni risultano più complesse che nel settore militare e della difesa. Anche qui l’IA e le capacità di autonomia e apprendimento delle tecnologie di IA pongono sfide etiche nell’ intelligence, nella cyber-warfare, fino ai sistemi d’arma autonomi. Nel suo intervento a SIpEIA, Mariarosaria Taddeo ha ricordato come la digitalizzazione del conflitto sia un processo iniziato decenni fa e oggi arrivato a una fase di piena maturità. Dalla Prima guerra del Golfo in cui l’informazione diventava un asset strategico, agli attacchi cyber all’Estonia nel 2007 che hanno mostrato come le tecnologie digitali possano essere “armate”, fino al riconoscimento del cyberspazio come dominio operativo da parte della NATO: la difesa si è progressivamente trasformata. La guerra in Ucraina segna un’ulteriore accelerazione, con l’intelligenza artificiale sempre più centrale nelle strategie militari. Non è solo una questione tecnologica: questa evoluzione ridefinisce sicurezza, responsabilità ed equilibri globali. Comprenderla è essenziale per governare il futuro.
A chiudere il confronto Mons. Vincenzo PAGLIA (Accademia Pontificia per la Vita). Preoccupato per la direzione antidemocratica, totalizzante, pervasiva e non inclusiva intrapresa dallo sviluppo tecnologico più recente, ha ammonito sul pericolo altrettanto grande dell’inerzia. Bisogna intervenire e in questa direzione sono andate e stanno andando anche le iniziative della Pontificia Accademia della Vita, perché tale sviluppo non avvenga al di fuori di una prospettiva etica, intendendosi l’etica come “visione di un nuovo umanesimo”. E intervenire non dall’alto, ma convincendo ad una auto-regolamentazione chi genera gli algoritmi. Ma le regole, da sole, non bastano. Occorre consapevolezza in tutte le componenti della società civile della necessità di un’attitudine umanistica che accompagni lo sviluppo di questa tecnologia e consapevolmente indirizzi i decisori politici in un’ottica di dignità e bene comune. Serve un quadro giuridico condiviso, che contenga anche regole etiche: purtroppo non è attuabile facilmente nel momento attuale, che vede una politica internazionale per lo più sovranista e dominata decisamente da una cultura della forza. Siamo in un momento delicatissimo, con il tema dell’IA legato a quello delle armi, alla modalità della conquista che è andata a sostituire quella della scoperta, alla mancanza di volontà dei Paesi ad agire insieme in un’ottica di ‘casa comune’ da preservare. L’antidoto potrebbe trovarsi in un’eticità e trasparenza dell’algoritmo, nell’educazione che genera conoscenza – e qui fondamentale il ruolo delle università, “motori di visioni” –, in un ritorno ad una universitas scientiarum. Al posto della eccessiva specializzazione delle discipline, un’alleanza di tutte le scienze anche con le arti, la poesia, con tutto quello che definisce l’umano che sappia guidare la scienza senza rinnegarla. Un’alleanza anche tra gli umani, nel segno del dialogo, contaminandoci, camminando insieme, prendendoci cura gli uni degli altri, consapevoli che nessuno si salva da solo. L’humana communitas è un must, non un’opzione, è la conclusione di Mons. Paglia.
Contatti:
Immediapress
Media Duemila |Media Partner
Dott.ssa Sara Aquilani Redazione Media Duemilae-mail:redazione@mediaduemila.com
T. 377-2367413#SIpEIA2026
COMUNICATO STAMPA – CONTENUTO PROMOZIONALE
Responsabilità editoriale di Immediapress
—
immediapress


