"I popoli non dovrebbero temere i propri governi: sono i governi che dovrebbero temere i propri popoli." V (da John Basil Barnhill) |
Gli interventi
La (in) sicurezza della IA⇧
Stefano Aterno (Studio Legale E-LEx)
L'IA e le altre tecnologie emergenti (come i computer quantistici) sembrano spingere gli esseri umani verso una conoscenza della realtà che va oltre i confini della loro stessa percezione. Ma queste tecnologie hanno dei limiti. A fronte di grandi vantaggi già oggi evidenti (e in futuro ancora più sbalorditivi) preoccupano a ragione i rischi, le incertezza e le insicurezze che l'uso di tali tecnologie comporteranno. Ci interroghiamo a livello mondiale sugli effetti, sulle criticità, sui danni, sulle responsabilità che l'uso di tale tecnologia comporterà. Il nostro problema è che non riusciamo ancora ad afferrare le implicazioni filosofiche del nostro rapporto con tali tecnologie. Stiamo progredendo in modo automatico e non cosciente. E questo è un problema. Stiamo assistendo ad un cambiamento della coscienza umana. Durante l'illuminismo la coscienza umana subì una trasformazione perchè la stampa (la nuova tecnologia dell'epoca) aveva prodotto nuove intuizioni filosofiche che erano state diffuse a loro volta dalla stessa tecnologia. Oggi si sta sviluppando una nuova tecnologia che però non solo è priva delle regole tecniche scritte tipiche delle grandi invenzioni, ma è ancora priva di una filosofia capace di guidarla. Dobbiamo quindi affrontare la sfida di sviluppare una visione etica e filosofica per guidare l'uso di queste potenti tecnologie, in modo da massimizzare i benefici e mitigare i rischi. È necessario un approccio multidisciplinare che coinvolga filosofi, scienziati, responsabili delle politiche, sviluppatori e la società nel suo complesso. Solo attraverso un dibattito approfondito e una guida filosofica adeguata possiamo affrontare responsabilmente la rapida evoluzione di queste tecnologie e plasmare un futuro in cui esse siano in sintonia con i valori umani e contribuiscano al progresso sostenibile della società. Nonostante queste preoccupazioni e insicurezze, è importante sottolineare che l'IA e le tecnologie emergenti hanno il potenziale di portare notevoli vantaggi alla società. Ad esempio, possono migliorare l'efficienza operativa, facilitare la diagnosi e il trattamento delle malattie, ottimizzare le risorse energetiche e consentire nuove scoperte scientifiche. È fondamentale bilanciare attentamente i benefici con i rischi, lavorando per creare un ambiente in cui l'IA sia sviluppata in modo sicuro, transparente ed etico. In conclusione, l'IA e le tecnologie emergenti costituiscono una doppia sfida: da un lato, presentano un vasto potenziale che può superare le limitazioni della nostra percezione e conoscenza; dall'altro, sorgono preoccupazioni riguardo ai rischi, alle incertezze e alle insicurezze che possiamo affrontare se queste tecnologie non sono gestite in modo adeguato. Per affrontare tali sfide, è necessario adottare un approccio responsabile basato su una solida base etica e filosofica, coinvolgendo diverse parti interessate per sviluppare un quadro normativo e regolamentare che favorisca lo sviluppo sicuro, responsabile ed equo delle tecnologie emergenti.
Il Machine learning nel nuovo “Regolamento Macchine”⇧
Elena Bassoli (Angif - Ass. Naz. Giuristi e Informatici e Forenser)
Tra le novità più rilevanti del nuovo Regolamento Macchine del 2023 vi è un approccio particolare alle componenti digitali, compreso il software, che viene per la prima volta introdotto nella disciplina macchine e l’introduzione di nuove responsabilità per fornitori, importatori e distributori con specifico riguardo al “comportamento autoevolutivo” delle macchine in cui sia stato implementato un qualche tipo di machine learning. Ciò determinerà particolari obblighi in capo agli operatori economici, in particolare per quanto attiene alla valutazione dei rischi e all’obbligo di introduzione di “limitatori di apprendimento”, come prescritto dal nuovo Regolamento, oltre alla messa a disposizione del codice sorgente o della logica di programmazione del software relativo alla sicurezza al fine di dimostrare la conformità della macchina o del prodotto correlato rispetto al Regolamento a seguito di richiesta da parte di un’Autorità nazionale.
Intelligenza artificiale, discriminazione e normativa europea⇧
“Poca favilla gran fiamma seconda” (Paradiso I, 34) scrisse Dante in un invito ai posteri a seguire il richiamo universale dei perenni valori umani. L'invenzione di tecnologie sempre più efficienti e di largo utilizzo pongono già adesso quesiti giuridici rilevanti: per esempio, le difficoltá connesse a dimostrare che una decisione avente effetti giuridici rilevanti sulla singola persona sia stata adottata solamente da un algoritmo. Difficoltá emergono anche nel riuscire ad applicare il principio di non-discriminazione in ambito tecnologico. Difatti uno dei temi che desta maggiore preoccupazione è che le applicazioni dell'Intellingenza Artificiale possa portare a pratiche discriminatorie: fra queste quelle che pongono maggiori complicazioni sono quelle pratiche apparentemente neutrali, ma discriminatorie ad un'analisi più attenta. Con la conseguenza che le potenziali vittime nemmeno si accorgono di essere state svantaggiate e non possono porvi rimedio. La normativa europea, pur ribadendo, in vari livelli normativi, il principio di non-discriminazione, lascia aperte delle criticità.
L'utilizzo dell'IA per la salute⇧
Filippo Bianchini (ASSO DPO - ISLC)
L’intervento intende essere una presentazioe dei risultati della WHO e mira a fornire una panoramica delle considerazioni normative sull'IA per la salute che copre le seguenti sei aree tematiche generali: documentazione e trasparenza, approccio al ciclo di vita totale del prodotto e gestione del rischio, uso previsto e validazione analitica e clinica, qualità dei dati, privacy e protezione dei dati, impegno e collaborazione.
Politiche per la ricerca scientifica sull'IA⇧
Marco Ciurcina (StudioLegale.it)
Si illustrano il contesto tecnologico e normativo che, con opportune scelte politiche, potrebbero favorire la libera disponibilità, lo studio e la comprensione dei sistemi d’intelligenza artificiale. Per conseguire questo fine, è utile valorizzare i metodi già adottati per il software libero. È anche utile approfittare del quadro normativo europeo che permette di adottare politiche che valorizzano la ricerca scientifica nello sviluppo dei sistemi d’intelligenza artificiale.
Se l'AI fosse la soluzione e non il problema? Almeno nella Pubblica Amministrazione⇧
Anche se non mancano casi di scarsa digitalizzazione anche nel settore privato, la Pubblica Amministrazione ha la nomea, a torto o ragione, di procedere come nell'800, gestendo gli iter con faldoni, timbri, montagne di moduli da compilare in triplice copia. L'accumulo di carta implica spesso la saturazione degli archivi, per cui i faldoni cominciano ad accumularsi nei corridoi accessibili al pubblico, o restare visibili sulle scrivanie. Anche la digitalizzazione non è esente da scarsa consapevolezza o attenzione alla sicurezza, amplificando la magnitudo del data breach in caso di perdita dei dati. Se quindi l'apparto pubblico ha poche risorse per la formazione e la gestione dei sistemi, un'AI attentamente programmata e controllata centralmente potrebbe essere una soluzione, anziché un problema?
Il futuro dell'algoritmo pubblicitario e la protezione della privacy⇧
Luca Landucci (Pro Cultura Aperta)
Esploreremo la connessione tra l'Intelligenza Artificiale e il futuro del targeting pubblicitario, ponendo particolare enfasi sulla protezione della privacy dei consumatori. L'utilizzo dell'IA nella progettazione di algoritmi pubblicitari è in continua evoluzione, mentre le aziende cercano di trovare un equilibrio tra la fornitura di contenuti pubblicitari rilevanti e il rispetto della privacy degli utenti.
Associazionismo e libertà: strumenti giuridici, etici e tecnici per la partecipazione libera e protetta⇧
Stefano Mastella , Quiroz Marco (Università degli Studi di Milano) e Jolanda Giacomello
La velocità del cambiamento tecnologico tende a stimolare una iper-produzione normativa ed un cambiamento incessante della disciplina sulla riservatezza. in Europa, per esempio, dove le direttive prima ed il GDPR poi hanno uniformato e generalizzato la disciplina del trattamento dei dati personali le leggi sono continuamente modificate per adeguarle alle nuove minacce alla riservatezza o sono adattate alle concorrenti esigenze di informazione, comunicazione e commercio. Negli Stati Uniti le esigenze di tutela della privacy hanno determinato il fiorire di una vasta legislazione speciale (la privacy dei guidatori, la privacy dei lettori, dei consumatori, dei bambini, ecc) a tal punto che è oggettivamente difficile districarsi nella congerie di strumenti normativi federali, statali e frutto dell’autonomia privata. Velocità del cambiamento e accumulo normativo non vanno certo nella direzione del rafforzamento e della maggiore protezione dell’autonomia individuale: la cornice si fa confusa e l’individuo è esposto all’incertezza ed al peso delle influenze esterne. La moltiplicazione e la specificazione del diritto alla privacy ha creato occasioni di conflitto non solo tra il diritto alla riservatezza ed altri diritti di pari rilievo giuridico (libertà di informazione, trasparenza amministrativa etc..) ma ha ingenerato conflitti interni tra attori sociali diversi in nome dello stesso diritto alla riservatezza. La più grave conseguenza non prevista e non voluta dell’affermarsi del diritto alla riservatezza si è, tuttavia manifestata in Europa ed i contorni della sua gravità non sono ancora del tutto stati compresi e consistono nell’aumento del potere discrezionale delle autorità di regolazione del settore del trattamenti dei dati personali nel vecchio Continente, non controbilanciato da un aumento della possibilità per i cittadini europei di partecipare alle decisioni né con strumenti di democrazia rappresentativa né tanto meno con forme di democrazia deliberativa. Essenziale, dunque, il tema della sovranità riferita non solo e non tanto all’individuo come singolo ma come soggetto che opera politicamente mediante le formazioni sociali in cui è inserito. Il tema è trasversale e comporta la garanzia per il soggetto di sceglie se condividere le proprie opinioni, valutazioni scelte o preferenze all’interno di un gruppo circoscritto (l’associazione, il gruppo, il coordinamento) e se e come manifestare anche all’esterno le scelte e le opinioni individuali e collettive. Il tema non è quindi affrontabile senza un approfondimento sotto il profilo tecnologico di come di come occultare o disoccultare consapevolmente la propria presenza su internet e sui mezzi digitali, da un lato, e di come al potere delle autorità di controllo (governance dei fenomeni) può contrapporsi un potere di autoregolazione (poietico, pratico) che spetta agli individui ed alle associazioni. Produzione e controllo, trasformazione ed autoregolazione nell’era digitano pongono nuove sfide che solo un approccio interdisciplinare può affrontare nell’ottica del rafforzamento della capacità di partecipazione alle scelte politiche. L’intervento sarà diviso in tre “atti”. Il primo atto prevede un breve excursus sui sistemi giuridici pensati per proteggere l’autonomia individuale e nelle interazioni sociali. Il secondo atto prevede la definizione delle implicazioni etiche della determinazione della libertà di decidere di essere ciberneta (di guidare la propria barca in condizioni avverse). Il terzo atto esplora gli strumenti per permettere agli individui e ai gruppi di esprimersi liberamente al di là del controllo del potere.
Email. Uno strumento obsoleto?⇧
Costanza Matteuzzi (Costituenda Associazione NO.VIO), Luca Perozzo e Antonio Montillo
L'email è uno degli strumenti più utilizzati nelle relazioni quotidiane. tuttavia questo strumento ha delle importanti criticità. Pertanto occorre domandarsi quali sono e se vi sono strumenti alternativi. I relatori intendono utilizzare sia un approccio giuridico che informatico, mettendo in evidenza i problemi di riservatezza e tutela dei dati che la mail ha. Inoltre si indicheranno delle alternative e se esistono dei sistemi mail più sicuri.
Profilazione di un cybercrimer⇧
Cristina Brasi (Criminologa Forense), Giovanni Ronconi e Antonio Montillo
L’applicazione del Criminal Profiling all’ambito digitale richiede necessariamente l’integrazione di modelli afferenti alla metodologia deduttiva e induttiva. Dal punto di vista deduttivo si tratta di scoprire l’intenzione e il movente di un reato e costruire il ritratto criminologico-comportamentale del criminale. Un Criminal Profiling, implica l’applicazione di teorie psicologiche per l’analisi e la ricostruzione delle prove oggettive riguardanti la scena del delitto e lo studio delle caratteristiche della vittima. Da qui l’importanza del lavoro di squadra e della collaborazione tra i differenti professionisti. Il metodo induttivo utilizza previsioni, stime e ipotesi elaborate attraverso dati già a disposizione, rilevati da elementi precedenti relativi a crimini e criminali noti. Si utilizza un processo di generalizzazione del comportamento e delle caratteristiche di un soggetto attraverso analisi statistiche e ipotesi probabilistiche, giungendo a delineare la descrizione di un profilo per similitudine comportamentale. Inoltre, per mezzo dell’analisi di modelli comportamentali individuali è possibile cogliere le peculiarità di cui sopra, mettendo in evidenza le motivazioni alla base dell’agito e le strutture di ordine cognitivo ed emotivo.
Da un grande potere derivano grandi responsabilità: proporzionalità nell'uso della tecnologia di riconoscimento facciale⇧
Natalia Menéndez González (Istituto Universitario Europeo)
La relazione discuterà l’'applicazione del principio di proporzionalità nell'uso delle Tecnologie di Riconoscimento Facciale (TRF). In particolare, approfondirà il modo con cui le autorità di controllo (autorità di protezione dei dati personali) in tutta l’'Unione Europea hanno applicato tale principio in alcuni degli usi più controversi delle TRF su cui hanno avuto modo di pronunciarsi.
Smart city e innovazione: una nuova sfida per i diritti individuali e la sicurezza dei cittadini⇧
Paola Patriarca e Joel Naman
Nel 2012 l’Istituto Treccani ha definito con il neologismo smart city “una città caratterizzata dall’integrazione tra saperi, strutture e mezzi tecnologicamente avanzati, propri della società della comunicazione e dell’informazione, finalizzati a una crescita sostenibile e al miglioramento della qualità della vita”. Tuttavia, il termine smart city ha guadagnato maggiore attenzione soltanto negli ultimi anni, grazie ad un progresso tecnologico rapido ed incessante che ha aperto la strada a molteplici scenari innovativi. La città intelligente rappresenta un ambizioso progetto che si fonda su un'alleanza vincente tra tecnologia e capitale umano intellettuale, politico e sociale. Smart city significa, tra le altre, un’organizzazione cittadina più interattiva e reattiva, spazi pubblici più sicuri e un migliore soddisfacimento delle esigenze di una popolazione: si pensi alla gestione del flusso del traffico tramite semafori intelligenti, alle reti di trasporto urbano più efficienti, alle nuove stazioni telefoniche intelligenti, fino ai processi innovativi per illuminare e riscaldare gli edifici e rendere più efficiente lo smaltimento dei rifiuti. Una city “domotica’’, interconnessa con una moltitudine di dispositivi collegati tra loro e al servizio dei cittadini, al fine di migliorare i servizi pubblici e la partecipazione dei consociati alla vita collettiva della città. Una smart city è in grado di analizzare esattamente le esigenze dei propri abitanti, conosce esattamente le loro abitudini perché si aggiorna continuamente sui loro spostamenti, sa cosa e quanto consumano e individua i servizi di cui hanno bisogno. Ma questo comporta grosse criticità sotto il profilo del trattamento dei dati. La costruzione di città intelligenti attribuisce infatti un’importanza centrale agli aspetti legati alla sicurezza e alla sostenibilità, riconoscendo particolare attenzione alla raccolta, condivisione e conservazione dei dati personali dei singoli cittadini. Nelle città intelligenti, il ricorso massiccio alle tecnologie IoT genera incessantemente un'enorme quantità di dati, analizzati per fornire servizi innovativi ai cittadini. Nella corretta implementazione di queste tecnologie, una delle sfide maggiori riguarda proprio la tutela della riservatezza dei cittadini e la sicurezza delle loro informazioni, senza le quali mancherebbe la fiducia e l’appoggio dei consociati, la cui partecipazione è essenziale affinché si concretizzino i vantaggi legati allo sviluppo delle smart cities. Città di tutto il mondo si stanno adoperando per realizzare questa strategia di pianificazione urbanistica innovativa e all'avanguardia che chiama in causa attori politici, provider, esperti ma, soprattutto, gli stessi cittadini. Quali saranno gli scenari del prossimo futuro? Soprattutto, quali i rischi paventati rispetto allo sviluppo delle città intelligenti? L’intervento avrà lo scopo di illustrare questi aspetti, attraverso un’attenta analisi sulle criticità e sulle opportunità che la smart city offre, alla luce del quadro normativo nazionale ed europeo.
Dati privati e felicità pubblica⇧
Maria Chiara Pievatolo (Università Pisa)
Stati e monopolisti dell'ICT usano i dati personali per progetti che giustificano con lo scopo di una presunta felicità collettiva. E lo possono fare senza troppe difficoltà, anche dove esistono legislazioni a tutela della privacy, quando i dati personali sono trattati come proprietà, (a) virtualmente esclusivi ma alienabili, specialmente ove i monopolisti propongono termini di servizio come offerte che non si possono rifiutare, e (b) limitati all'interesse individuale, anche qualora i "proprietari" fossero consapevoli che il carattere panottico dell'ordine sociale è un problema collettivo. Winston in "1984" viene riassimilato al sistema perché le azioni politiche collettive sono al di là della sua portata - perfino l'opposizione è organizzata dallo stato - e si trova a difendere solo un precario e infine illusorio fortino privato individuale. É possibile intendere la condivisione - o no - dei dati personali come una questione di azione e di politica collettiva? Proverò a rispondere a questa domanda a partire dalle riflessione di Kant sul rapporto fra felicità e politica.
Il Garante e l'IA⇧
Guido Scorza (Garante per la Protezione dei Dati Personali)
NYA
Io non ho nulla da nascondere, che mi importa della sicurezza IT?⇧
Giovambattista Vieri (consulente it)
Io non ho nulla da nascondere, che mi importa della sicurezza IT? Quante volte abbiamo sentito dire questo ? Forse e' il caso di cambiare ottica e cominciare a scoprire cosa e quanto queste attitudinin possono donare alla societa' e, ai suoi stakeholder. Cominciamo a parlare di tracce digitali rilevabili liberamente in molti paesi con un hardware da meno di 50 euro escluso pc. Di certo avete usato i dongle tv sul pc. E quelli bluetooh. E altri ancora (Zigbee? Lora?). Spesso questi apparati operano su frequenze ad ascolto libero e, il cui ascolto e' addirittura possibile da remoto, via web. Ma cosa troviamo su queste frequenze ? Sicuramente lettori di temperatura, pioggia e umidita'. Sensori a contatto. Pressione e temperatura delle gomme, contabilizzatori e altro ancora. Ricordo a tutti del bluetooth e del suo MAC facilmente registrabile... Insomma cosine molto interessanti che visto che usiamo rigorsamente in chiaro, e non ci diamo pena di cio' forse, nazioni, comuni e cittadini dovrebbero cominciare a usare. Mi raccomando senza mai violare la legge. Che al riguardo e' permissiva e chiara. Ora, se aggiungiamo questo 'strumento' che puo' arrivare a decine di metri, alla biometria potremmo avere un riconoscimento biometro rafforzato e rilassato ? Ai posteri l'ardua sentenza.
Dal principio precauzionale all'approccio consapevole: la sfida dell'autovalutazione per l'AI⇧
Chiara Vescovi (ReD OPEN - Università Milano-Bicocca)
Nell'ambito dell'Intelligenza Artificiale, l'emergente e vasta complessità normativa anticipa l'avvento di regolamentazioni più rigorose. Tuttavia, l'etica, che si riflette in ogni normativa, è intrinsecamente legata alla cultura di una certa società. Pertanto, gli strumenti sviluppati per navigare in questa complessità devono essere profondamente radicati nel contesto socio-culturale in cui operano. Questa esigenza diventa ancor più evidente quando si esplora il concetto di responsabilità, oscillando tra le prescrizioni del GDPR e le nuove proposte normative emergenti. La chiave per affrontare questi rapidi cambiamenti risiede nella creazione di strumenti che non solo aumentino la coscienza decisionale, ma che conservino anche la flessibilità necessaria per adattarsi all'evoluzione continua delle tecnologie AI. La direzione ottimale combina principi solidi con interventi specifici di governance e organizzazione. Uno strumento particolarmente efficace in questo contesto è l'introduzione di un momento "ex ante", un punto di autovalutazione che fornisce gli elementi essenziali per navigare il panorama normativo con chiarezza e consapevolezza.