"I popoli non dovrebbero temere i propri governi: sono i governi che dovrebbero temere i propri popoli." V (da John Basil Barnhill) |
Gli interventi
Compliance e tutela dei diritti, prima ci è scappata di mano la privacy ora ci scapperà di mano l’Intelligenza Artificiale?⇧
Lo sviluppo dell’IA è davvero governabile come sembrano pensare gli estensori delle norme che lo regolamentano? Sembra che l’IA abbia solo obiettivi nobili e sembra che le sue applicazioni abbiano il potenziale di far fare all’umanità un salto enorme in avanti. Probabilmente è vero ma ci sono molti risvolti che non devono sfuggire. Intorno allo sviluppo dell’IA stanno prendendo piede due grandi illusioni: che l’IA abbia l’obiettivo di alleviare il nostro lavoro semplificandolo e poiché é ben lontana dall’essere autenticamente creativa, non costituisca una minaccia per i mestieri che sembra poter sostituire. L’AI act sembra essere una norma che regolamenterà adeguatamente lo sviluppo e la commercializzazione dell’IA, alcune applicazioni sono proibite, altre fortemente regolamentate, altre ancora, a basso rischio, sono deregolamentate. Ma la forza dell’AI Act é illusoria perchè: varcando i confini dell’UE, altri paesi potranno sviluppare applicazioni dell’AI diverse, ad alto rischio ed essere comunque fruibili per tutti o per molti. esiste qualcosa di più potente delle norme che é la volontà del consumatore (orientata dai produttori). continuiamo a pensare che i tempi di sviluppo siano nell’ordine degli anni mentre con la sinergia con la computazione quantistica i tempi passeranno da anni a istanti. A questi temi se na va ad aggiungere uno etico profondo che riguarda il tema dei bias. Proprio per le diversità culturali delle diverse aree del pianeta: Europa, USA, Paesi arabi, Cina e India (solo per citarne alcune), si avrà una considerazione dei bias molto eterogenei e da ciò conseguiranno prestazioni e sviluppi di strumenti come quello dell’IA profondamente diversi rispetto all’obiettivo dato.
Dall’ADR all’AI-ADR: prime riflessioni⇧
La trasversalità dei sistemi di intelligenza artificiale è indubbia, in quanto non vi è un settore economico in cui non possa trovare applicazione: dall’ambito del servizio clienti aziendale al settore sanitario o assicurativo per esempio. Uno degli aspetti più marginali, rispetto alla strategia digitale della Commissione Europea, è l’applicazione dell’Intelligenza Artificiale alle forme stragiudiziali di risoluzione delle controversie (=ADR): in tale espressione si ricomprendono negoziazioni, mediazioni, conciliazioni e altre forme di risoluzione extra-giudiziale delle controversie. Infatti il legislatore europeo ha proposte delle modifiche alla direttiva 2013/11/EU e fra tali modifiche esiste un espresso riferimento ad una procedura espletata con mezzi automatizzati. In un settore, come quello della risoluzione alternativa delle controversie, in cui l‘offerta privata é prevalente rispetto a quella pubblica, diviene agevole immaginare varie modalitá in cui l‘intelligenza artificiale possa trovare applicazione in tale settore con varie conseguenze dirette ed indirette: quelle dirette concernono l’applicazione delle norme sull’IA anche agli ADR. Quelle indirette sono più silenti e possono costituire un ulteriore passo verso un processo, in parte già in corso, di „orrizontalizzazione“ delle norme applicabili ad un caso concreto.
Gestione del rischio, poca protezione nonostante le norme⇧
Paola Bontempi (Resolve Consulting Srl) e Giacomo Uberti
La conoscenza e la gestione dei rischi è elemento cardine di tutta la recente normativa in materia di compliance e dei Sistemi di Gestione ISO. Si è assistito, ormai da oltre un decennio, ad una rivoluzione nell'approccio alle norme di compliance. Non sono più definiti in maniera tassativa gli adempimenti, ma sono forniti i criteri, i principi, le regole, in base a cui valutare i propri rischi e definire le modalità di gestione e mitigazione degli stessi. Questo è avvenuto e sta avvenendo anche in tema di privacy e in generale di gestione delle informazioni. L’intervento mira a trasmettere questo cambio di paradigma e ad illustrare metodologie e buone pratiche per una adeguata valutazione e gestione del rischio. Adottare questo approccio a livello metodologico, permette di essere consapevoli degli elementi di debolezza della propria organizzazione e di poter facilmente sanare eventuali gap rispetto a quanto richiesto dalle norme. Ci si soffermerà in particolare su norme trasversali e comuni a molti come : GDPR - NIS2 - ISO 27001 - AI ACT
IA e diritti umani: in bilico tra progresso e distopia⇧
Alessandra Bormioli (Hermes Center)
Nell'era dell'IA, i diritti digitali sono sempre più sotto pressione. Questo intervento di Hermes Center esamina i rischi della sorveglianza tecnologica, sia da parte dei governi che del settore privato. Discuteremo l'importanza di una regolamentazione adeguata per bilanciare innovazione e tutela dei diritti umani, promuovendo un futuro digitale rispettoso della privacy individuale.
Privacy e dignità nel mondo digitale⇧
Internet e le nuove tecnologie hanno trasformato radicalmente il modo in cui le persone vivono e interagiscono, portando la nostra società a confrontarsi con nuove questioni etiche e legali riguardanti la privacy, la protezione dei dati personali e lo statuto dell’uomo in rapporto alle proprie informazioni. L'intervento esamina l'evoluzione del concetto di privacy nella società digitale partendo dalla celebre definizione di Warren e Brandeis, ponendo poi in rilievo la stretta correlazione tra protezione dei dati personali e dignità umana. Pertanto, in primo luogo, si riflette sul significato di privacy e sulle ragioni del suo parziale cambiamento, analizzando il legame tra corpo fisico e corpo elettronico attraverso i concetti di homo numericus e infosfera. Si argomenta che paragonando i nostri dati a delle tracce digitali lasciate sul Web e capaci di identificarci in una modalità simile a quella che avviene con le nostre impronte fisiche, si riesce a comprendere il loro valore senza ricorrere ad una identificazione ontologica fra noi e le nostre tracce, che sarebbe difficile da giustificare. In questo modo, si può approfondire altresì lo statuto e il significato del “corpo elettronico”, partendo dalla definizione che diede Stefano Rodotà. L’intervento sottolinea che tale concetto possegga un ampiezza maggiore rispetto a quella dei singoli dati e che, di conseguenza, richieda un livello di protezione più elevato e attento. Tale ampiezza semantica, tiene conto della natura duale del corpo elettronico, che è considerabile sia come una mera somma di singoli dati personali sia come un insieme da cui si possono dedurre, tramite una sorta di sillogismo, ulteriori dati che non compaiono in superficie. Per giustificare la proposta di questa definizione, viene esposto un esempio che ne illustri le ragioni. L’analisi appena presentata, infine, è propedeutica all’esplorazione del concetto di dignità umana, che nella storia del pensiero filosofico ha avuto differenti interpretazioni. A questo proposito, verranno delineate le due teorie principali sulla dignità, quella della dotazione e quella della prestazione, argomentando che le prime, siccome intendono la dignità in senso ontologico, pre-giuridico e come un possesso originario inalienabile, riescono ad essere il principio fondante della protezione dei dati. Tuttavia, l’intervento propone altresì un’unione fra i due gruppi di teorie di modo che la dignità ontologica possa trovare la sua collocazione anche in campo giuridico, così da permettere che la legge ne recepisca la definizione e si impegni nella sua protezione. Infine, per evitare una possibile obiezione circa la tensione presente fra sicurezza e privacy, l’intervento propone di considerare, accanto alla dignità ontologica, il concetto di dignità morale.
e-democracy e controllo massivo nell'era post-Snowden dalle black-ops della NSA al caso Pegasus⇧
Raoul “Nobody” Chiesa (Security Brokers SCpA)
"I leak del ""caso Snowden"" hanno disegnato un nuovo confine nel mondo dell'Intelligence e delle ""Cyber Operations"". Questa presentazione analizzerà alcuni concetti di data breach e violazioni della privacy da parte di attori Nation-State dopo il c.d. ""Datagate Affair"" (lo scandalo NSA), insieme a recenti avvenimenti da Kiev a Beirut, passando per Caracas, per poi focalizzarsi sul concetto di Democrazia e controllo massivo nel 21esimo secolo."
Diritto e digitale: niente di nuovo sul fronte occidentale⇧
Marco Ciurcina (StudioLegale.it)
Osservando la storia dello sviluppo del digitale e la relazione di questo processo con il diritto si rileva la ripetizione di alcuni schemi, che hanno radici antiche. Partendo da questa constatazione, si propone una mappa dei vettori di produzione normativa e dei punti di forza e debolezza del diritto nel governare il digitale. Si illustrano infine alcune delle proposte di cambiamento sistemico che, nell'attuale fase di crisi, potrebbero configurarsi all'orizzonte.
IA: una maratona senza fine?⇧
Monica Dassisti (Studio Legale E-Lex)
Il comparto normativo si amplia sempre di più mentre si cercano di tappare le voragini che la tecnologia crea costantemente. Innovazione dopo innovazione, ci si comincia a chiedere seriamente se mai riusciremo a stare al passo con la tecnologia, ad anticiparla, ad essere addirittura una spanna avanti. Ma come ci dimostra l'AI, in particolar modo quella generativa, essa attiene a dei costrutti che ben si distanziano dal ragionamento che è in grado di compiere l'essere umano, addentrandosi in strade inesplorate e spesso inimmaginabili. Questo, però, è anche il motivo per il quale l'AI riesce a offrire quel surplus che ci consente di svolgere un lavoro di squadra non di poco conto, grazie al quale il risultato raggiunto può determinarsi geniale e produttivo a livelli che forse non avevamo mai raggiunto prima. Ahimè, il legislatore (probabilmente) non è dello stesso avviso. Dal lontano 2016 si affanna per cercare di stilare un piano d'azione a medio-lungo termine, che al massimo abbia bisogno di piccoli ritocchi durante il cammino, ma senza perdere l'efficacia del muro portante. Eppure abbiamo potuto constatare non è stato così: ce l'hanno dimostrato l'AI Act, il Regolamento DORA, la NIS2, il DMA e il DSA, il DGA e tanti altri piccoli mattoncini giunti nel tentativo di riparare una torre in costante equilibrio precario. Ci chiediamo, a questo punto, se mai un giorno riusciremo anche solo per qualche istante a far stare ferma quella torre, se riusciremo a ideare delle tecniche antisismiche di massima resilienza. Ma se invece fosse l'AI stessa a poterci dare la chiave di volta, trovando un modo per prevedere le sue stesse mosse? Sarebbe una vera e propria rivoluzione riuscire a stilare un disegno di legge ancor prima che la tecnologia avanzi e lo sarebbe ancora di più se questo azzeccasse esattamente, in mezzo a infinite vie, la strada giusta che porta al punto esatto segnato sulla mappa da una grossa "X", un po' come se fosse una caccia al tesoro. Siamo destinati ad arrivare sempre al secondo posto o è già possibile utilizzare le tecnologie emergenti per colmare il gap tra noi umani e i sistemi che noi stessi abbiamo architettato?
Intelligenza artificiale come nuovo strumento di controllo geopolitico e di massa: l’approccio normativo ed economico europeo è ancora fallimentare.⇧
La relazione verte sulla problematica relativa al controllo geopolitico e di massa dell’intelligenza artificiale e sull’approccio fallimentare europeo per regolarne finalità, modalità di utilizzo e trattamento dati personali. Dopo motori di ricerca e social network, la nuova frontiere del trattamento illecito di dati personali è l’intelligenza artificiale. L’Unione Europea nonostante i timidi tentativi non è ancora riuscita ad affrontare il vero cuore del problema: l’indiscriminata raccolta e trattamento di dati personali senza consenso, il trasferimento di dati all’estero senza una base giuridica sostenibile e un’effettiva protezione e l’impossibilità di avere un controllo sui propri dati personali e di esercitare i diritti sugli stessi. A tutto ciò si aggiunge la problematica dello sfruttamento illecito di diritti d’autore e del know-how, con il risultato che l’Europa si sta impoverendo sempre di più oltre che economicamente anche tecnologicamente.
Le decisioni 'umanizzate' dei sistemi automatizzati: ancora fragili tutele per le libertà fondamentali⇧
Utilizziamo sempre di più artefatti non per facilitare il compimento di un’azione, un’attività o un’operazione che abbiamo già pianificato, bensì per assumere decisioni. La delega compu-decisionale varia significativamente a seconda della complessità delle decisioni da assumere, del livello di automazione e del corrispondente grado dell’intervento umano. E' proprio sul rapporto tra grado di automazione e intervento umano che si incentrano le tutele previste dal Regolamento europeo sul trattamento dei dati personali. Tuttavia, subordinare le tutele normative ad un’indagine circa la complessità delle diverse dinamiche che caratterizzano i processi decisionali automatizzati, alla ricerca di evidenze sulla prevalenza dell’uno o dell’altro fattore in contesti formati da reti complesse di input, algoritmi, dati e interventi umani, rischia di dissolvere le tutele stesse. La recente sentenza della Corte di giustizia (C-634/21, Schufa) pur offrendo un’interpretazione estensiva della nozione di decisione automatizzata, consente di mettere in luce, ancora una volta, le fragilità delle tutele costruite per le libertà fondamentali.
Norme e Leggi vs Ingegneria Sociale⇧
Edoardo Ferri (Studio Tecnico Ferri & Costantino)
Il potere regolatore delle leggi può mitigare il rischio dell'utilizzo di tecniche di manipolazione utilizzate per influenzare il comportamento umano? Attraverso l'analisi di casi studio, si metterà in luce come l'ingegneria sociale possa aggirare le normative, evidenziando i rischi di un uso distorto della psicologia umana in ambiti come la sicurezza informatica e la sicurezza delle informazioni. Discuteremo sulle sfide che le istituzioni affrontano nel regolamentare queste dinamiche, cercando un punto di incontro tra la protezione dei diritti individuali e collettivi e le leggi per contrastare nuove forme di manipolazione.
Da consumatori a consumati: la libagione delle nuove divinità algoritmiche⇧
"La relazione verterà sull'osservazione del nuovo paradigma economico ove i soggetti, definiti dal legislatore come ""consumatori"", in realtà, divengono sempre più pastura per gli algoritmi, ove qualsiasi loro emozione, comportamento, desiderio, può essere trasformato in utilità economica per le imprese e di governo e controllo per gli Stati. Quanto, allora, la normativa privacy e sull'intelligenza artificiale può porre un argine a tale situazione? Il legislatore europeo è davvero in grado di tutelare i propri cittadini dallo strapotere delle imprese tecnologiche?"
Risk Management per la privacy in ambito medicale⇧
In ambito sanitario e medicale il problema della privacy è molto sentito, soprattutto adesso che in tanti stanno prendendo coscienza del fatto che oltre al dato che viene tradizionalmente gestito c'è anche quello utilizzato per il training di sistemi basati su AI o raccolto durante il loro utilizzo. Dispositivi Medici ed IVD, anche quando sono composti da solo software, sono soggetti a cogenze che implicano che venga fatto un processo per la gestione del Rischio. Rischio di Safety (per chi utilizza o è oggetto dell'utilizzo del dispositivo) e Rischio di Security (per sistemi, software, dati e la porzione di rete raggiunta). L'intervento proposto rientra in quest'ultima categoria: dopo una breve introduzione al Risk Management tradizionale (Safety) viene mostrato uno dei possibili approcci alla Security, con esempi di danni e possibili contromisure, ed un particolare focus verso i sistemi basati su AI.
Sarà un’AI a gestire il diritto in Europa?⇧
Diego GIORIO (SEPEL Editrice - Comune di Villanova Canavese)
In questi giorni sto studiando il Regolamento EU sull’intelligenza artificiale, che già sulla copertina dichiara di andare ad impattare su ben nove normative UE, mentre il 6 settembre sono uscite 40 pagine di FAQ sul data act, che, come qualunque normativa importante, necessita di coordinamento con altre regole, interpretazioni, analisi giuridica. Aggiungiamo poi le norme nazionali, le sentenze della Corte UE, della Corte per i diritti umani, delle Corti nazionali, per tacere della dottrina. Un cittadino dell’Europa che voglia comprendere come un qualunque Regolamento possa veramente tutelarlo dovrebbe passare settimane a leggere il testo, i commenti, le norme richiamate, le interpretazioni giurisprudenziali… Un professionista, che, oltre all’aggiornamento, deve anche pensare a fatturare per poter mettere la pagnotta in tavola, sicuramente fatica a star dietro a tutte le novità. Ma anche un docente universitario, che, oltre alla didattica, possa dedicarsi interamente allo studio e alla ricerca, può rischiare di perdersi quel comma, quella norma nascosta in un testo apparentemente non pertinente, quella considerazione in una sentenza che avrebbero potuto fargli prendere una strada diversa nelle sue analisi. Un tempo c’erano avvocati che sapevano a memoria il codice civile e/o il codice penale ed erano certi di maneggiare il 90% delle norme. Oggi neppure lo studioso più preparato può essere certo di sapere tutto, anche perché basta stare due giorni a letto con l’influenza e già qualcosa può essere cambiato. Si può parlare di certezza del diritto in una situazione così complessa, per non dire ingarbugliata? Un diritto così stratificato e bulimico può veramente garantire i diritti del cittadino medio? Anche perché una persona disonesta fa in fretta a operare da uno Stato non molto attento a queste tematiche così da aggirare la maggior parte dei controlli, con buona pace delle notevoli fonti produttive dell’Europa. Chissà che l’intelligenza artificiale non possa essere la soluzione, anziché il problema.
Dark Pattern: conseguenze dell'indagine del Garante Privacy⇧
Monica Gobbato (Privacy Academy) e Angela Pedalina (Associazione Lawboat.ch)
La ricerca delle impostazioni privacy sui siti Web è ancora ostacolata dall’uso di troppi cookie illegittimi e dark pattern, i cosiddetti “percorsi ingannevoli” che inducono gli utenti a effettuare scelte in violazione della disciplina sulla privacy e che invece li spingono a decisioni svantaggiose che non avrebbero compiuto in caso di maggior trasparenza da parte del sito web. È quanto si evince dai risultati dell’indagine che il Garante privacy italiano ha condotto nell’ambito dell’annuale Global Privacy Enforcement Network (GPEN) Sweep, l’iniziativa internazionale durante la quale 26 Autorità di controllo della privacy di tutto il mondo hanno analizzato il fenomeno del dark pattern, cioè appunto i modelli di design ingannevole noti anche come Deceptive patterns.
La monetizzazione dei dati personali⇧
Luca Landucci Landucci (Pro Cultura Aperta)
"Nell'era digitale i dati personali sono diventati una risorsa fondamentale, il cosidetto nuovo oro. L'attuale modello di monetizzazione, che si basa sulla raccolta e vendita di dati per fini pubblicitari, si sta dimostrando insostenibile e richiede un ripensamento radicale. Con un mercato che vale miliardi e una produzione di dati in costante aumento grazie a tecnologie come IoT, edge computing e 5G, grandi aziende dominano il settore sfruttando massivamente i dati degli utenti. Nonostante l'introduzione del GDPR, che ha stabilito importanti principi di protezione, la sua applicazione concreta spesso si riduce a pratiche poco trasparenti, come i banner per i cookie e i ""dark patterns"" che manipolano gli utenti. La monetizzazione aggressiva dei dati persiste anche a causa del grande squilibrio di potere tra le piattaforme e gli utenti. Il modello ""servizi gratuiti in cambio di dati"" ha creato esternalità negative come la sorveglianza di massa, la manipolazione delle opinioni pubbliche e la polarizzazione. Questo ha messo a rischio sia la qualità dell'informazione sia la democrazia stessa, rendendo anche inefficace il targeting pubblicitario. Anche il recente l'AI Act, che regola l'uso dei dati per l'addestramento di intelligenze artificiali, pone nuove sfide evidenziando la necessità di trovare un equilibrio tra innovazione e protezione dei dati. Questo talk esplora un futuro in cui la privacy non è più una merce di scambio, ma un diritto fondamentale e una fonte di valore. Esamineremo come tecnologie emergenti come la blockchain e l'identità auto-sovrana possano restituire agli utenti il controllo dei propri dati, aprendo la strada a nuovi modelli di business etici e sostenibili. Discuteremo le sfide e le opportunità di questa transizione, immaginando un'economia digitale in cui innovazione e privacy coesistono a beneficio di tutti."
Le ispezioni e i Provvedimenti del Garante per la Privacy: strumenti fondamentali per capire il quadro normativo sulla protezione dei dati personali.⇧
Stefano Mastella e Jolanda Giacomello
Lo sviluppo tecnologico e la rapida e crescente digitalizzazione in tutti gli aspetti della vita dell’uomo, hanno reso la protezione dei dati personali una questione di fondamentale importanza a livello globale, di cui non possiamo più ignorare. Il Regolamento Generale sulla Protezione dei Dati (GDPR) e il recente AI Act, hanno rappresentato e rappresentano una svolta epocale in questo ambito, introducendo un quadro normativo rigoroso e uniforme a livello europeo. Tuttavia, l'applicazione concreta di tali norme spesso risulta farraginosa e di difficile attuazione in quanto i fattori da considerare nella effettiva protezione dei dati sono tanti e le competenze richieste sono trasversali e sempre più specifiche. Le ispezioni condotte dal Garante per la Privacy possono rappresentare uno strumento fondamentale per applicare e monitorare il rispetto della normativa e individuare le migliori pratiche in materia di protezione dei dati. Attraverso queste attività di controllo, l'Autorità contribuisce non solo a garantire i diritti degli interessati, ma anche a fornire indicazioni preziose agli esperti che si occupano di protezione dei dati personali. Approfondire le Ispezioni del Garante e analizzare i Provvedimenti aiuta a individuare le tendenze e le interpretazioni del GDPR e di tutto il quadro normativo sulla protezione dei dati, a riconoscere l’influenza e quindi l’importanza delle Linee Guida e dei Pareri, a identificare le best practices e i nuovi modelli di governance della protezione dei dati che si stanno affermando, a riflettere sulle nuove sfide che ci impongono le tecnologie emergenti.
Riflessioni su Tecnologie della Liberazione per l'Arricchimento della Privacy, Crittografia e Comunicazione Sicura, un approccio pratico.⇧
Antonio Montillo (Digital Value Cybersecurity)
Nell’era digitale contemporanea, la protezione della privacy e la garanzia di comunicazioni sicure sono diventate questioni fondamentali per l’autonomia individuale e collettiva. Le tecnologie della liberazione, che includono strumenti e pratiche progettate per difendere la libertà e la sicurezza degli utenti, giocano un ruolo chiave in questo contesto. Queste tecnologie comprendono l’uso di protocolli di crittografia avanzati, piattaforme di comunicazione decentralizzate e software open source, tutti finalizzati a garantire la riservatezza e la sicurezza delle interazioni digitali, preservando i diritti alla privacy e alla libertà di espressione. Il tema di questo intervento si focalizza sull’evoluzione delle tecnologie della liberazione e sul loro impatto concreto nel rafforzamento della privacy digitale e delle comunicazioni sicure. Attraverso un’analisi delle principali soluzioni disponibili oggi, come la crittografia end-to-end, la decentralizzazione delle reti di comunicazione e l’uso di blockchain per la protezione dell’identità digitale, l'intervento illustrerà come queste tecnologie siano strumenti essenziali per difendere l’individuo dalle minacce rappresentate dalla sorveglianza di massa, dalla censura e dalle violazioni della privacy. Un’attenzione particolare sarà rivolta al ruolo della crittografia come fondamento per la protezione della privacy. La crittografia non è solo uno strumento tecnico, ma anche un potente mezzo per garantire il rispetto dei diritti fondamentali. Verranno discussi i principali protocolli crittografici utilizzati oggi, come Signal Protocol, TLS e le criptovalute basate su zero-knowledge proofs, evidenziando come essi proteggano le comunicazioni da attacchi di intercettazione e assicurino la confidenzialità dei dati trasmessi. In parallelo, verrà approfondito l’uso delle tecnologie decentralizzate, come le reti peer-to-peer e le piattaforme basate su blockchain, che offrono modelli alternativi di comunicazione e scambio di informazioni. Queste soluzioni, grazie alla loro natura distribuita e resistente alla censura, permettono di eludere i controlli centralizzati e di proteggere l’integrità dei messaggi e l’anonimato degli utenti. Saranno presentati esempi di applicazioni decentralizzate che permettono comunicazioni sicure e resistenti a interferenze esterne, come i sistemi di messaggistica decentralizzata e i progetti di identità auto-sovrana. L'intervento metterà anche in luce le sfide e le problematiche legate all’adozione di queste tecnologie. Verranno analizzati i limiti tecnici, come la scalabilità e la complessità d’uso, e le questioni etiche, come il potenziale abuso di tecnologie anonime da parte di attori malevoli. Nonostante queste problematiche, le tecnologie della liberazione rappresentano una componente essenziale per costruire un ecosistema digitale sicuro e rispettoso dei diritti dell’utente. Infine, verrà proposta una visione futura delle tecnologie della liberazione, sottolineando l’importanza di uno sviluppo continuo e inclusivo, in grado di rispondere alle nuove minacce emergenti e di adattarsi ai cambiamenti normativi. La costruzione di un ambiente digitale veramente sicuro e libero richiede la collaborazione tra ricercatori, sviluppatori, attivisti e legislatori, affinché la privacy e la sicurezza possano essere arricchite da tecnologie che mettano al centro l’individuo e il suo diritto alla riservatezza. Questo intervento invita i partecipanti a riflettere sulle opportunità e le sfide offerte dalle tecnologie della liberazione e a contribuire alla costruzione di un futuro digitale che privilegi la sicurezza, la privacy e la libertà di espressione.
Giustizia predittiva e questioni etiche⇧
Enrica Priolo e Andrea Scarpellini Camilli
L'intervento esplora il rapporto tra giustizia predittiva e questioni etiche, analizzando i benefici e i rischi associati all'adozione di sistemi di IA nel sistema giuridico. Si propone una riflessione su come bilanciare il potenziale di innovazione con le necessità di responsabilità, equità e trasparenza, suggerendo possibili linee guida per un'implementazione etica della giustizia predittiva.
Il ruolo della cybersecurity nell'era dell'AI⇧
Le minacce alle intelligenze artificiali comprendono azioni che ne potrebbero compromettere il funzionamento, la sicurezza e l'affidabilità. Gli attacchi alle AI possono anche avere conseguenze negative su privacy e sicurezza. Servono strategie di mitigazione mirate per prevenire, rilevare e limitare i danni attraverso attivita' di assessment specifiche oltre a policy per implementare correttamente l'uso della AI.