"I popoli non dovrebbero temere i propri governi: sono i governi che dovrebbero temere i propri popoli."
V (da John Basil Barnhill)

Gli interventi

aPrivacy in HoloCity

Giulio Beltrami (Ecologia dei Sistemi Informativi)

La furbizia con cui i virus si propagano, nello spazio e nel tempo, sfruttando la dinamica delle popolazioni, suggerisce di snellire e decongestionare le nostre organizzazioni, per fronteggiare tali e tanti “cigni neri”, adottando il paradigma “olonico-virtuale” per una SmartCity rinominata HoloCity, in cui “olarchia” organizzativa e “olotopia” territoriale favoriscano comunità locali, di vita e lavoro, con un modello di “villaggi globalmente connessi”, caratterizzato da regole flessibili di confinamento e migrazione di risorse, umane e materiali, fra organizzazioni sociali, politiche e imprenditoriali, alternativo al famigerato “villaggio globale”, senza regole e confini. A questo scopo tali risorse devono essere sistematicamente identificate, assegnate a qualche organizzazione e localizzate, in modo sicuro e riservato, tramite il loro “gemello digitale”, applicando l’approccio algoritmico ad una privacy (a-privacy) che garantisca:

  • Pubblico dominio (apertura) degli algoritmi adottati.
  • Identificazione legale degli agenti.
  • Completezza e simmetria di rilevazione e registrazione dei fatti, anche sensibili.
  • Segreto professionale in cassaforte, come per confessori, avvocati, medici, ecc..
  • Regole d’accesso rigorose, per motivazione e autorità.
  • Rilevazione e sanzione automatica (con eccezione umana) degli abusi.
  • Adozione dell’intelligenza artificiale (con prudenza).

con la presunzione che l’elaborazione di codici digitali sia meglio dell’interpretazione umana di legislazioni tradizionali.

Le tecnologie ed i dati linguistici – quadro normativo

Rebecca Berto

Nell’anno di celebrazione dei 700 anni dalla morte di Dante, si ricorda come egli collocò il re Nimrod nel pozzo dei giganti perché colpevole di aver sfidato la divinità (Inferno canto XXXI, 51-81): Dante illustrò l’impresa del re fra gli esempi di superbia (Purgatorio Canto XII, 34-36). Naturalmente si possono leggere tali versi in più modi: la storia del re Nimrod e della torre di Babele ricorda di non avere una sconfinata fiducia nella tecnologia, la quale si prefigge di consentire all’uomo di superare confini naturali, culturali, giuridici.

Oggigiorno le tecnologie del linguaggio hanno numerose applicazioni: dai classici motori di ricerca, al marketing digitale e ai servizi digitali per la salute, per citare alcuni esempi. Le tecnologie del linguaggio sono un settore chiave dell’economia digitale. Il Slator 2020 Language Industry Market stima per il 2022 un volume economico pari a 25,3 miliardi.

Eppure i dati linguistici sono essenziali per lo sviluppo di tali tecnologie, come per esempio allenare intelligenze artificiali o molto più semplicemente esercitare traduttori automatici. A parte il lessico e la grammatica di ogni lingua, ogni singolo individuo ha un modo del tutto personale di esprimersi e di comunicare, frutto anche per esempio dell’influenza dell’ambiente in cui vive, della propria professione o del livello culturale.

Qual’è la base giuridica per poter allenare per esempio un’intelligenza artificiale con dati linguistici? Ed è possibile trattare la lingua o meglio i dati linguistici creati da ogni singolo individuo, come un dato personale, ai sensi del GDPR? Scopo dell’intervento è evidenziare come la normativa vigente non disciplini questo aspetto.

Riconoscimento facciale: considerazioni sui diritti fondamentali nel contesto dell'applicazione della legge

Filippo Bianchini (Studio Legale Bianchini)

Le tecnologie di riconoscimento facciale permettono di confrontare immagini facciali digitali per determinare se sono della stessa persona. Il confronto di filmati ottenuti da telecamere con le immagini nei database è definito "tecnologia di riconoscimento facciale dal vivo". Gli esempi di autorità nazionali preposte all'applicazione della legge nell'UE che utilizzano tale tecnologia sono scarsi, anche se in molti ne stanno testando il potenziale. La relazione intende esaminare le implicazioni per i diritti fondamentali, concentrandosi sul suo uso per l'applicazione della legge Il GDPR riconosce come "dati sensibili" le immagini facciali delle persone, che sono una forma di dato biometrico. Anche se l'accuratezza delle corrispondenze stia migliorando, il rischio di errori rimane reale, in particolare per alcuni gruppi di minoranze. Inoltre, le persone le cui immagini vengono catturate ed elaborate potrebbero non sapere che questo sta accadendo - e quindi non possono contestare possibili abusi. La relazione analizza queste e altre sfide per i diritti fondamentali che sono innescate quando le autorità pubbliche impiegano tali tecnologie e presenta brevemente i passi da compiere per evitare violazioni dei diritti umani.

Dal libero convincimento del Giudice alla prova degli algoritmi: la difesa tra byte e processi decisionali automatizzati

Carlo Blengino

Più che una riflessione "alta" sull'impiego della '"AI" nei tribunali, una modesta testimonianza di come la digitalizzazione delle nostre vite e l'informatizzazione del processo penale abbia sovvertito e minato alcuni fondamenti del processo, dalla parità tra accusa e difesa sino al principio del libero convincimento del giudice, là dove il dubbio non è più ammesso ne contra, né pro reo (abstract mooolto provvisorio ..............................................................................).

Analysis app. sms/voip for cellular - privacy by design

Fabio Carletti aka Ryuw

Vorrei analizzare le app.per cellulari come alcuni esempi signal, telegram witckrMe, ed altre tra le più usate nei contesti diversi di segretezza, differenza e punti di forza come sceglierne per un giusto utilizzo in base all'uso cosa è opensource e cosa solo in parte, punti di forza delle applicazioni che possono essere installate su un cellulare per trasferire messaggi, video o chiamate. Si analizzeranno come lavorano i server cosa sbandierano i produttori e di che nazionalità sono le leggi in vigore dove tengono i server e il modus operandi di sviluppo.

“LA PRIVACY NON MI INTERESSA PERCHE’ NON HO NULLA DA NASCONDERE”

Mariangela Fedozzi (Libero Professionista)

“LA PRIVACY NON MI INTERESSA PERCHE’ NON HO NULLA DA NASCONDERE” Questa è un’affermazione che sento dire spesso quando mi reco presso le aziende che seguo come Privacy Manager o D.P.O. durante la formazione di Personale e Management in ambito privacy e data protection. Mentre riflettevo sul focus di questo elaborato pensavo a quanto mi piacerebbe disquisire di dati biometrici, smart cities, I.O.T (Internet of Things), riconoscimento facciale e via dicendo… Ma se non sono chiari i concetti fondamentali (e secondo la mia esperienza la maggior parte delle persone non conosce l’argomento) come possiamo addentrarci in sistemi così complessi? In Primis, qual è la differenza fra privacy e protezione dati? Potrebbero sembrare sinonimi, in realtà sono due cose molto diverse e distinte ma collegate fra loro. La prima fa riferimento al diritto alla riservatezza delle informazioni personali e della propria vita privata. La privacy tutela la sfera intima del singolo individuo e serve ad impedire che determinate informazioni vengano divulgate in assenza di specifiche autorizzazioni o quando vogliamo delimitare uno spazio personale che non desideriamo venga oltrepassato da sconosciuti. La protezione dei dati personali, invece, è un sistema di trattamento degli stessi che identifica direttamente o indirettamente una persona. Nella sua definizione oltre al principio di riservatezza, troviamo quello della disponibilità e dell’integrità dei dati personali. Mentre la privacy è uno strumento per allontanare sguardi indesiderati, la protezione dei dati personali mette al centro la persona con riferimento ai suoi dati perché questi costituiscono un’identità. Per tornare al titolo della relazione, citando Edward Snowden “Affermare che la privacy non ci interessa perché non abbiamo nulla da nascondere è un po' come affermare che la libertà di parola non ci interessa perché non abbiamo nulla da dire. Occorre fargli capire che stanno fraintendendo il concetto fondamentale dei diritti umani. Non serve giustificare il motivo per cui si ha "bisogno" di un diritto: il carico della giustificazione ricade su chi cerca di infrangere quel determinato diritto. Ma anche se fosse, non puoi cedere i diritti altrui perché a te non sono utili." Faccio spesso ai miei interlocutori due domande: Accetteresti mai di farti visitare dal medico con la porta aperta? Se la risposta è no, il concetto di tutela alla riservatezza è chiaro. E ancora: mi confideresti le password di tutti i tuoi account e non solo di quello «ufficiale e rispettabile» che utilizzi per lavoro, ma di tutti quelli che possiedi, per permettermi di scandagliare, verificare e curiosare su tutto ciò che fai on line, leggere quello che voglio e pubblicare tutto ciò che troverò interessante? Dopotutto se non hai nulla da nascondere… Ad entrambe queste domande mi è sempre stato risposto “NO” e questo perché ogni essere umano istintivamente comprende la profonda importanza della privacy, soprattutto chi la nega. Il mio compito come DPO, Privacy manager e professionista della protezione dati è divulgare il verbo, insegnare alle persone come avvalersi di un loro diritto fondamentale e come tutelare loro stessi e le persone a cui vogliono bene. Bisogna innamorarsi della privacy e della protezione dati personali perché oggi non c'è nulla che ci rappresenti di più!

Dacci la tua faccia, siamo la pubblica amministrazione!

Giovanni Battista Gallus (Circolo dei Giuristi Telematici e Nexa Center)

Videosorveglianza e biometria sembravano essere diventate un binomio inscindibile per una "smart" city che si rispetti. Negli ultimi tempi, fortunatamente, si sono moltiplicate le iniziative (anche legislative) volte a evitare i maggiori rischi connessi a queste tecnologie, particolarmente invasive. Il talk si propone di analizzare le principali criticità e i più recenti sviluppi dell'utilizzo delle tecniche di identificazione biometrica da parte delle pubbliche amministrazioni, per finalità diverse da quelle di polizia e di indagine.

Oltre il riconoscimento facciale

Diego Giorio (Comune di Villanova Canavese / Sepel Editrice)

Oggi ci sono telecamere ovunque, legali o meno che siano. Fin quando non sono in rete e si limitano a registrare i movimenti si tratta di un problema relativamente limitato, dato che, di solito, vengono esaminate solo in caso di problemi. Ma se dovessero essere messe in rete - ufficiale o meno - e se dovessero essere associate a sistemi di riconoscimento facciale verremmo di fatto pedinati in ogni spostamento. Ma se già questo può spaventare, pensiamo a cosa accadrebbe se oltre al riconoscimento facciale venissero associate ad un riconoscimento dell'umore e dei sentimenti. Certo, forse si potrebbe evitare che un pilota di linea si suicidi portandosi dietro i passeggeri, ma penso che i problemi ed i rischi per la libertà e la democrazia supererebbero di gran lunga i vantaggi.

Intelligenza artificiale, le sfide privacy alla luce del regolamento della Commissione europea

Alessandro Longo (Agendadigitale.eu)

A fine aprile la Commissione europea presenta il primo regolamento sull'AI, complementare alla normativa GDPR, che nei confronti di big data e AI cominciava a mostrare limiti. Vediamo gli impatti dell'AI sulla privacy (sorveglianza di massa, profilazione con discriminazione a danno soprattutto di minoranze e gruppi sociali deboli) e gli strumenti normativi presenti e auspicabili, nel GDPR e nel regolamento della Commissione. Un tema affrontato dal libro scritto da me e Guido Scorza per Mondadori Education e rivolto alle università

Schrems II e privacy: cosa succede nel cloud SaaS

Ugo Lopez (Associazione Blue Lighthouse - Edizioni e Formazione)

Lo scorso anno, in piena pandemia, la sentenza CGUE denominata "Schrems II" ha cambiato completamente le regole del gioco in merito a privacy e GDPR sulle piattaforme cloud SaaS utilizzate in Europa ma appartenenti a multinazionali americane. Il talk intende ripercorrere brevemente l'excursus storico, partendo dal primo ricorso dell'attivista austriaco Maximilian Schrems, per poi analizzare brevemente gli effetti che quest'ultima sentenza ha avuto e sta avendo sulle principali piattafome cloud SaaS utilizzate in Italia per DaD, DDI e smart working

La spirale del silenzio fa bene ai diritti umani?

Enrica Priolo (Bonadio Priolo LTF )

Analizzerò l'effetto prodotto dalla consapevolezza di essere tracciati nell'impianto dei diritti fondamentali della persona. Mi chiederò, in particolare, se l'autocensura possa essere vista come una soluzione al problema "sorveglianza di massa" oppure se costituisca solamente un fallimento del progresso tecnologico. Indagherò su possibili rimedi al tracciamento massiccio e dedicherò un focus al riconoscimento facciale e al suo rapporto con le libertà di manifestazione del pensiero, di circolazione e di uguaglianza.

Verso una governance europea dell'AI

Roberto Reale (Eutopian) e Diletta Huyskes (Privacy Network)

Il nuovo Regolamento europeo sull'intelligenza artificiale, la cui versione definitiva è stata resa pubblica il 21 aprile 2021, rappresenta il naturale complemento al GDPR. Le limitazioni stavolta però non riguardano direttamente i dati personali ed il loro trattamento, bensì gli algoritmi e le applicazioni considerate "ad alto rischio". Alcune tecnologie (incluse quelle per la sorveglianza di massa) saranno vietate tout court (almeno sulla carta), altre potranno essere impiegate soltanto a patto che vengano soddisfatti determinati criteri sulla qualità dei dataset (assenza di bias) e sulla "filiera". Al di là di alcune lacune del Regolamento, la sfida (come per il GDPR) sarà impedire che abbiano priorità aspetti puramente formali e che lo sforzo di tracciare una via europea all'intelligenza artificiale sia occasione non soltanto di tutela ma anche di investimenti.

Il Ruolo dei Data Brokers nel Capitalismo della Sorveglianza

Urbano Reviglio (Università di Milano)

I data brokers sono attori fondamentali del capitalismo della sorveglianza poiché si impegnano nello scambio e inferenza di dati e informazioni personali. E' noto che le loro tecniche di raccolta e analisi dei dati e i numerosi servizi che offrono potrebbero comportare violazioni dei diritti umani. Tuttavia, l'industria dei data brokers rimane ancora un soggetto poco studiato e poco regolamentato. La letteratura accademica è ancora molto limitata. Inoltre, su entrambe le sponde dell'Atlantico, non esiste ancora un chiaro programma normativo. La relazione si propone di offrire una revisione critica interdisciplinare della letteratura più recente. L'efficacia della regolamentazione sia negli Stati Uniti che nell'UE è infatti profondamente discutibile. A causa di tecniche sempre più sofisticate, i data brokers consentono la dataficazione e la persistenza potenzialmente infinita dei dati personali nel cyberspazio. I danni involontari e indesiderabili derivanti dall'attività di questi intermediari di dati sono intrecciati con le basi del capitalismo della sorveglianza. I social media stessi sono pericolosamente legati a tali soggetti. Per essere socialmente sostenibile, l'industria del data brokers avrebbe bisogno non di soluzioni palliative e tolleranti ma di riforme radicali, globali e sistemiche che siano in grado di cambiare gli incentivi economici per allinearli con l'interesse dei cittadini, prima ancora che dei consumatori. La conseguenza più ovvia è che tali soluzioni danneggerebbero il profitto e la crescita di un settore ormai assai potente, opaco e pervasivo. Pertanto, si vuole discutere quali sarebbero le soluzioni più efficaci che si possono intraprendere.

Due esempi di bias algoritmici: la polarizzazione su Youtube e l'eteronomartività su Pornhub.

Salvatore Romano (Tracking Exposed)

Gli algoritmi sono una soluzione tecnologica al sovraccarico di informazioni: sono tanto potenti quanto necessari per gestire l'overflow di dati che ci raggiunge. Purtroppo, possono anche nascondere l'uso di valutazioni e giudizi basati su bias che hanno un impatto sulla diffusione delle idee e della cultura. Tracking Exposed (tracking.exposed) si occupa da diversi anni di rendere queste "black box" (Pasquale,2016) analizzabili in modo indipendente, sia per i ricercatori/ricercatrici che per gli utenti comuni. In questo intervento discuteremo due degli studi più significativativi che abbiamo condotto sugli algoritmi di raccomandazione di Youtube (https://youtube.tracking.exposed/filtertube/) e Pornhub (Forthcoming). In particolare ci soffermeremo sull'intersezione tra Echo Chamber e Filter Bubble (Zimmer et al., 2019) e gli effetti sulla polarizzazione (Nikas, 2018) del dibattito nel contesto post-elettorale americano, presentando una ricerca realizzata in collaborazione con il dipartimento di Media Studies dell'Università di Amsterdam (wiki.digitalmethods.net/). Successivamente mostreremo i risultati di un recente studio condotto in collaborazione con il progetto Algocount (algocount.org) dell'Università di Milano sulla struttura della homepage di Pornhub, focalizzandoci su come il design e gli algoritmi di questa piattaforma possono finire per riprodurre l'eteronormatività, nonostante la piattaforma stessa affermi il contrario.

La gestione concreta delle password private contro l'indispensabilità dei riconoscimenti biometrici pubblici

Valentino Spataro (IusOnDemand srl)

La gestione delle password e' oggetto di formazione obbligatoria dei collaboratori ai sensi del GDPR, ma questo lo sappiamo ...

Quello che non sappiamo e' che gestire le password e' semplice.

Piu' difficile condividerle tra pc fisso, portatile, smartphone, tablet ...

E chi gestisce i livelli dei permessi ?

Miracolosamente con il riconoscimento biometrico tutto questo si semplifica, e diventa piu' sicuro. Ma e' proprio cosi' ?

Proviamo a ipotizzare il riconoscimento biometrico nelle imprese e nella P.A. Per scoprire che il Garante ha di recente rivalutato la necessità di minimizzare assolutamente il trattamento di questi dati.

Allora: dati biometrici si' o no ?

Intelligenza (o Giustizia) Artificiale? Limiti e criticità di una tecnologia ancora troppo umana

Elisabetta Stringhi (Università degli Studi di Milano), Simone Bonavita (Information Society Law Center) e Alessandro Cortina (Perani Pozzi Associati)

Partendo da una rapida rassegna ed analisi di possibili tecniche e "trucchi" per ingannare i sistemi di video-sorveglianza dotati di sistema di riconoscimento facciale tramite il trattamento dei dati personali biometrici, ci interrogheremo sulla correttezza di ricorrere a tali tecnologie, sulle quali non abbiamo ancora un pieno controllo e delle quali non conosciamo effettivamente il funzionamento interno, per finalità di giustizia predittiva, sicurezza nazionale, verifica dell'identità personale. Non si può fare affidamento a tali sistemi come se costituissero una panacea per tutte le problematiche di sicurezza, in quanto forieri di errori, discriminazioni e potenziali ingiustizie.

Democrazia, Condorsismo e Partecipazione Popolare

Andrea Surbone (The Jus Semper Global Alliance)

I cittadini devono tornare a essere demos. Ma senza un rinnovato assetto istituzionale non sarà possibile. Anzi, il solco fra la politica e i cittadini diverrà sempre più profondo, fino a farsi voragine. Con la conseguenza di una sempre più forte richiesta di “uomo forte”, di nocchiere che ci tragga dai marosi. Siamo di fronte al classico cane che si morde la coda, eppure da una qualche parte è necessario e urgente cominciare. In gioco c’è la democrazia, intesa come istanze che provengono dal popolo, come partecipazione popolare e come controllo popolare. Non è più possibile opporsi alla deriva della democrazia, di cui la sorveglianza di massa è una “punta di diamante dell’iceberg”, senza che ognuno di noi assuma il suo compito. Il saggio che propongo come relazione si può trovare qui: https://www.jussemper.org/Inicio/Recursos/Democracia%20Mejores%20Practicas/Resources/AndreaSurbone-DemocraziaCondorsismoePartecipazionePopolare(italiano).pdf

Riconoscimento facciale: la posizione europea

Vincenzo Tiani (Hermes Center for Transparency and Digital Human Rights)

Da tempo si discute in Europa su come e se regolare il riconoscimento facciale. Nel 2019 l'EDPB ha pubblicato delle linee guida sulla video sorveglianza mentre la FRA ha pubblicato la sua analisi dell'impatto dell'adozione di queste tecnologia sui diritti fondamentali. Il 21 Aprile 2021 la Commissione Europea ha da ultimo pubblicato la sua proposta di regolamentazione europea sull'Intelligenza Artificiale che va a toccare anche il tema del riconoscimento facciale. In questo panel faremo il punto sulle indicazioni normative europee già adottate e in corso di discussione su questo tema controverso.

Antibot Systems

Tobia Vendrame (Uniroma1)

Antibot systems sarà una presentazione che darà alla platea una rappresentazione ad alto livello del comportamento dei bot e dei sistemi che prevengono il loro utilizzo. Durante gli ultimi anni entrambi i soggetti in questione (bot e antibot) hanno guadagnato una buona fetta di mercato digitale, sono infatti nate diverse realtà e soluzioni per la loro gestione, esse però come analizzato dai miei ultimi approfondimenti garatiscono solo parzialmente l'anonimato e la privacy, nonostante il loro utilizzo non sia direttamente applicato all'utente finale, queste tecniche in maniera silente estrapolano una grande quantità di dati in maniera silente.

social leak: il bello il brutto e il cattivo.

Giovambattista Vieri (ENT SRL)

Tutti sappiamo cosa sia un social network. Sappiamo come nasce, come si sviluppa e come ci avviluppa. Insomma oramai sappiamo tutto dei social. In questa presentazione vedremo che effetti causa una dispersione dei dati in esso contenuti. PEr farlo seguiremo la vita di un social dall'idea a un evento di perdita di dati. E, da quel punto cercheremo di capire gli impatti su singoli, cultura, societa' e imprese anche apparentemente non collegate ad esso. Forse scopriremo che non tutto e' come appare e nemmeno come pensavamo. Forse potremmo scoprire che un social non e' solo un qualcosa utile a coloro che una volta si definivano scioperati, fannulloni e perditempo. Potremmo cominciare a pensare che il tesoro vero potrebbero non sono i dati personali dei singoli e, che la societa' civile dovrebbe poter avere accesso a questi dati.

Internet of Behaviors

Gabriele Zanoni

Gabriele Zanoni lavora come Senior Strategic Consultant in Mandiant. Il suo ruolo attuale gli permette di lavorare come Trusted Advisor su progetti strategici di cyber security nel settore Enterprise in Italia e in EMEA.

In passato, in qualità di Incident Responder, è stato coinvolto in attività di gestione degli incidenti per la difesa da attacchi e attaccanti State-Sponsored. Ha contribuito alla messa in sicurezza di aziende Enterprise, in Europa e Medio Oriente, in diversi settori come quello governativo, finanziario, delle telecomunicazioni, dei trasporti e non ultimo in quello energetico.

Ha lavorato come Penetration Tester per la sicurezza di molti istituti bancari Italiani ed esteri e ha coordinato team di sicurezza per il test e la risoluzione di vulnerabilità su sistemi critici.

È appassionato di OSINT (Open Source INTelligence) e di Analisi Forense, e spesso partecipa come relatore a conferenze inerenti questi temi.

LA GUERRA PER L'ATTENZIONE INIZIATA E'

Efrem Zugnaz (the Webprepping Initiative)

La guerra dell’attenzione ci vede partecipi che lo vogliamo o no. Oggi non è più importante avere un pubblico o avere opinioni, importa solo avere attenzione. Quanto siamo disposti a perdere per l'attenzione. Oggi è tutto relativo. Fermiamoci ancora una volta a pensare e utilizziamo semplici e banali contromisure, poco teniche, molto psicologiche per la nostra resilienza digitale. Poco serve leggere e guardare internet senza campirne il messaggio e discriminare le informazioni. Riflettere insieme per progredire insieme.

Organizzato da

In collaborazione con

Supporter

Media Partner