{"id":50470,"date":"2026-02-05T15:38:28","date_gmt":"2026-02-05T15:38:28","guid":{"rendered":"https:\/\/ciaoup.it\/?p=50470"},"modified":"2026-02-05T15:38:28","modified_gmt":"2026-02-05T15:38:28","slug":"governare-le-tecnologie-e-lia-secondo-un-modello-strategico-di-integrazione-tra-ricerca-creativita-visione-industriale-e-soprattutto-responsabilita-sociale","status":"publish","type":"post","link":"https:\/\/ciaoup.it\/?p=50470","title":{"rendered":"Governare le tecnologie e l\u2019IA secondo un modello strategico di integrazione tra ricerca, creativit\u00e0, visione industriale e, soprattutto, responsabilit\u00e0 sociale"},"content":{"rendered":"<p>COMUNICATO STAMPA &#8211; CONTENUTO PROMOZIONALE<\/p>\n<p> \u00a0<\/p>\n<p>\u00a0<\/p>\n<p>\n\u201cEtiche per l\u2019IA\u201d: chiuso ieri alla Sapienza il Convegno internazionale SIpEIA 2026<br \/>\n\u00a0<\/p>\n<p>\u00a0<\/p>\n<p>Roma, 5 febbraio 2026 | Contribuire alla costruzione di un\u2019IA responsabile e al servizio della persona: \u00e8 stato questo il tema principale della conferenza internazionale \u201cEtiche per l\u2019IA: sfide, opportunit\u00e0 e prospettive umano-centriche\u201d, conclusasi a Roma eorganizzata da SIpEIA (Societ\u00e0 Italiana per l\u2019Etica dell\u2019Intelligenza Artificiale) dopo due intensi giorni in cui sono stati affrontati i problemi etici connessi allo sviluppo dell\u2019IA tra aspetti normativi, sociali, a e di policy. \u00a0<\/p>\n<p>\u00a0<\/p>\n<p>Importante \u00e8 stato il contributo delle nuove generazioni di ricercatrici e ricercatori, fondamentali nel guidare il necessario cambiamento culturale e digitale. La conferenza, tra sessioni plenarie e sessioni parallele di approfondimento, ha dimostrato come sia importante unire rigore scientifico e multidisciplinarit\u00e0, intorno a temi come epistemologia e affidabilit\u00e0, responsabilit\u00e0 e cura, creativit\u00e0 e immaginario, societ\u00e0 e democrazia, educazione e sostenibilit\u00e0, diritto e governance. Ed \u00e8 stato veicolato un messaggio chiaro: l\u2019IA deve essere guidata da persone competenti, critiche e consapevoli.\u00a0<\/p>\n<p>\u00a0<\/p>\n<p>I lavori sono stati aperti dalla Sapienza con Matilde MASTRANGELO, che ha ribadito come l\u2019Intelligenza Artificiale non rappresenti pi\u00f9 un ambito distante o specialistico, ma una presenza quotidiana nelle nostre vite sociali, istituzionali e culturali. L\u2019IA incide su informazione, decisioni, lavoro, educazione e pratiche democratiche. Per questo, le sue implicazioni etiche non possono essere considerate marginali: riguardano direttamente le forme di vita che stiamo costruendo insieme. A seguire, l\u2019intervento di Tiziana CATARCI, presidente di SIpEIA, fondata nel 2020 durante la pandemia, che \u00e8 stata la prima associazione scientifica italiana centrata sui problemi etici sollevati dall\u2019IA. Ha ricordato che la mission dell\u2019Associazione \u2013 la promozione dell\u2019uso dell\u2019IA per il bene comune e il progresso sociale, contro ogni concentrazione di potere e nuove forme di esclusione \u2013 \u00e8 piuttosto una sfida collettiva che riguarda tutti. &#8220;I nuovi sistemi di IA non sono solo un&#8217;evoluzione tecnica, ma un cambiamento che investe il modo stesso in cui pensiamo il rapporto tra tecnologia, conoscenza e societ\u00e0\u201d. \u00a0<\/p>\n<p>\u00a0<\/p>\n<p>Scendendo nel concreto di una buona applicazione dell\u2019IA, Sanmay DAS (Virginia Tech) ha proposto una riflessione chiave sull\u2019uso dell\u2019Intelligenza Artificiale come strumento di misurazione nei sistemi umani e sociali. La domanda centrale qui non \u00e8 solo come misuriamo, ma che cosa scegliamo di misurare. L\u2019IA viene usata anche per l\u2019ottimizzazione delle risorse e per l\u2019analisi di preferenze e incentivi, ad esempio nei sistemi di welfare. Ma, come ha ricordato Das, non esistono soluzioni tecniche \u201cmagiche\u201d: alla base c\u2019\u00e8 sempre una scelta umana e politica sugli obiettivi sociali. L\u2019IA pu\u00f2 aiutarci a chiarire questi obiettivi, se sappiamo usarla nel modo giusto.\u00a0<\/p>\n<p>\u00a0<\/p>\n<p>Di AI agentica, opportunit\u00e0, rischi e responsabilit\u00e0, ha parlato Francesca ROSSI (IBM): l\u2019AI agentica non si limita a generare risposte, pu\u00f2 agire ed eseguire decisioni. Questo porta con s\u00e9 nuove opportunit\u00e0, ma anche rischi pi\u00f9 elevati: azioni irreversibili, nuove forme di allucinazione, maggiore esposizione a vulnerabilit\u00e0 e disallineamento dei valori non solo nel linguaggio, ma nelle azioni. La sfida centrale diventa cos\u00ec la fiducia, evitando sia l\u2019eccessiva delega sia il rifiuto per paura, garantendo sempre un controllo umano significativo. Il punto chiave \u00e8 uno: l\u2019AI deve aumentare l\u2019intelligenza umana, non sostituirla. E le aziende hanno una responsabilit\u00e0 diretta nel costruire governance, processi e strumenti per un\u2019AI davvero responsabile.\u00a0<\/p>\n<p>\u00a0<\/p>\n<p>La seconda giornata ha preso avvio dall\u2019intervento del filosofo Daniel INNERARITY (EUI), su democrazia, governance e impatto politico delle tecnologie e su come le democrazie cambiano nell\u2019era digitale. Lo studioso \u00e8 profondamente convinto che l\u2019IA non sia solo tecnica o tecnica ed etica, ma una questione profondamente politica. \u201dUn\u2019IA democratica richiede persone presenti nel suo ciclo di vita in grado di interpretare, contestare, decidere\u201d. Per rendere davvero rappresentative le tecnologie contemporanee \u00e8 necessario che la diversit\u00e0 dei loro rappresentanti sia quanto pi\u00f9 possibile simile alla diversit\u00e0 delle societ\u00e0 che intendono servire. Solo in questo modo una tecnologia cos\u00ec potente pu\u00f2 essere considerata autenticamente pluralista e democratica. \u00a0<\/p>\n<p>\u00a0<\/p>\n<p>Ci\u00f2 \u00e8 reso difficile dalla concentrazione del potere nelle mani di poche piattaforme che limita la variet\u00e0 delle prospettive e dalla mancanza di diversit\u00e0 nei sistemi di apprendimento. \u00c8 inoltre necessario evitare una dipendenza esclusiva dall\u2019ingegneria e da modelli stereotipati orientati unicamente alla massimizzazione. C\u2019\u00e8 poi una questione di valori, di equilibrio e di responsabilit\u00e0 nella costruzione e ricostruzione dei dataset. La carenza di diversit\u00e0, ad esempio nei dati facciali, ha gi\u00e0 prodotto fenomeni di discriminazione e sistemi di riconoscimento incapaci di considerare adeguatamente le differenze locali e globali. Analogamente, si registra una limitata variet\u00e0 anche nelle modalit\u00e0 di utilizzo dei servizi digitali. Per rappresentare realmente le nostre volont\u00e0 collettive, la tecnologia deve riflettere la nostra pluralit\u00e0. La sovranit\u00e0, infatti, \u00e8 costituita proprio da coloro che sono diversi: una comunit\u00e0 politica \u00e8 tale perch\u00e9 fondata sulla diversit\u00e0. Infine, Innerarity ha invitato caldamente a considerare tali questioni oggetto di decisioni consapevoli, riconoscendo pienamente la loro esistenza e la necessit\u00e0 di affrontarle.\u00a0<\/p>\n<p>\u00a0<\/p>\n<p>\nMariarosaria TADDEO (Oxford University) ha posto l\u2019accento su un aspetto particolare. Anche se con il rapido avanzamento dell\u2019Intelligenza Artificiale, ci troviamo a porci interrogativi urgenti su come questa tecnologia possa essere utilizzata in modo sicuro ed efficace, in nessun ambito tali questioni risultano pi\u00f9 complesse che nel settore militare e della difesa. Anche qui l\u2019IA e le capacit\u00e0 di autonomia e apprendimento delle tecnologie di IA pongono sfide etiche nell\u2019 intelligence, nella cyber-warfare, fino ai sistemi d\u2019arma autonomi. Nel suo intervento a SIpEIA, Mariarosaria Taddeo ha ricordato come la digitalizzazione del conflitto sia un processo iniziato decenni fa e oggi arrivato a una fase di piena maturit\u00e0. Dalla Prima guerra del Golfo in cui l\u2019informazione diventava un asset strategico, agli attacchi cyber all\u2019Estonia nel 2007 che hanno mostrato come le tecnologie digitali possano essere \u201carmate\u201d, fino al riconoscimento del cyberspazio come dominio operativo da parte della NATO: la difesa si \u00e8 progressivamente trasformata. La guerra in Ucraina segna un\u2019ulteriore accelerazione, con l\u2019intelligenza artificiale sempre pi\u00f9 centrale nelle strategie militari. Non \u00e8 solo una questione tecnologica: questa evoluzione ridefinisce sicurezza, responsabilit\u00e0 ed equilibri globali. Comprenderla \u00e8 essenziale per governare il futuro.\u00a0<\/p>\n<p>\u00a0<\/p>\n<p>A chiudere il confronto Mons. Vincenzo PAGLIA (Accademia Pontificia per la Vita). Preoccupato per la direzione antidemocratica, totalizzante, pervasiva e non inclusiva intrapresa dallo sviluppo tecnologico pi\u00f9 recente, ha ammonito sul pericolo altrettanto grande dell\u2019inerzia. Bisogna intervenire e in questa direzione sono andate e stanno andando anche le iniziative della Pontificia Accademia della Vita, perch\u00e9 tale sviluppo non avvenga al di fuori di una prospettiva etica, intendendosi l\u2019etica come \u201cvisione di un nuovo umanesimo\u201d. E intervenire non dall\u2019alto, ma convincendo ad una auto-regolamentazione chi genera gli algoritmi. Ma le regole, da sole, non bastano. Occorre consapevolezza in tutte le componenti della societ\u00e0 civile della necessit\u00e0 di un\u2019attitudine umanistica che accompagni lo sviluppo di questa tecnologia e consapevolmente indirizzi i decisori politici in un\u2019ottica di dignit\u00e0 e bene comune. Serve un quadro giuridico condiviso, che contenga anche regole etiche: purtroppo non \u00e8 attuabile facilmente nel momento attuale, che vede una politica internazionale per lo pi\u00f9 sovranista e dominata decisamente da una cultura della forza. Siamo in un momento delicatissimo, con il tema dell\u2019IA legato a quello delle armi, alla modalit\u00e0 della conquista che \u00e8 andata a sostituire quella della scoperta, alla mancanza di volont\u00e0 dei Paesi ad agire insieme in un\u2019ottica di \u2018casa comune\u2019 da preservare. L\u2019antidoto potrebbe trovarsi in un\u2019eticit\u00e0 e trasparenza dell\u2019algoritmo, nell\u2019educazione che genera conoscenza \u2013 e qui fondamentale il ruolo delle universit\u00e0, \u201cmotori di visioni\u201d \u2013, in un ritorno ad una universitas scientiarum. Al posto della eccessiva specializzazione delle discipline, un\u2019alleanza di tutte le scienze anche con le arti, la poesia, con tutto quello che definisce l\u2019umano che sappia guidare la scienza senza rinnegarla. Un\u2019alleanza anche tra gli umani, nel segno del dialogo, contaminandoci, camminando insieme, prendendoci cura gli uni degli altri, consapevoli che nessuno si salva da solo. L\u2019humana communitas \u00e8 un must, non un\u2019opzione, \u00e8 la conclusione di Mons. Paglia.\u00a0<\/p>\n<p>\nContatti:<br \/>\nImmediapress<br \/>\nMedia Duemila |Media Partner<br \/>\nDott.ssa Sara Aquilani Redazione Media Duemilae-mail:redazione@mediaduemila.com<br \/>\nT. 377-2367413#SIpEIA2026\u00a0<\/p>\n<\/p>\n<p>COMUNICATO STAMPA &#8211; CONTENUTO PROMOZIONALE<\/p>\n<p>Responsabilit\u00e0 editoriale di Immediapress<\/p>\n<p>&#8212;<\/p>\n<p>immediapress<\/p><\/p>\n<div style=\"display:flex; gap:10px;justify-content:center\" class=\"wps-pgfw-pdf-generate-icon__wrapper-frontend\">\n\t\t<a  href=\"https:\/\/ciaoup.it?action=genpdf&amp;id=50470\" class=\"pgfw-single-pdf-download-button\" ><img src=\"https:\/\/ciaoup.it\/wp-content\/plugins\/pdf-generator-for-wp\/admin\/src\/images\/PDF_Tray.svg\" title=\"Generate PDF\" style=\"width:auto; height:45px;\"><\/a>\n\t\t<\/div>","protected":false},"excerpt":{"rendered":"<p>COMUNICATO STAMPA &#8211; CONTENUTO PROMOZIONALE \u00a0 \u00a0 \u201cEtiche per l\u2019IA\u201d: chiuso ieri alla Sapienza il&hellip;<\/p>\n","protected":false},"author":3,"featured_media":50471,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[12],"tags":[23],"class_list":["post-50470","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-comunicati","tag-immediapress"],"_links":{"self":[{"href":"https:\/\/ciaoup.it\/index.php?rest_route=\/wp\/v2\/posts\/50470","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ciaoup.it\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ciaoup.it\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ciaoup.it\/index.php?rest_route=\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/ciaoup.it\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=50470"}],"version-history":[{"count":1,"href":"https:\/\/ciaoup.it\/index.php?rest_route=\/wp\/v2\/posts\/50470\/revisions"}],"predecessor-version":[{"id":50505,"href":"https:\/\/ciaoup.it\/index.php?rest_route=\/wp\/v2\/posts\/50470\/revisions\/50505"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ciaoup.it\/index.php?rest_route=\/wp\/v2\/media\/50471"}],"wp:attachment":[{"href":"https:\/\/ciaoup.it\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=50470"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ciaoup.it\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=50470"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ciaoup.it\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=50470"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}