Shop Neldirittoeditore Carrello
| Catalogo libri | Rivista | Distribuzione | Formazione | DOMENICA   18  NOVEMBRE AGGIORNATO ALLE 17:46
Articolo di Dottrina



ROBOTIZZAZIONE, INTELLIGENZA ARTIFICIALE E P.A.




Giuseppe Morano

SOMMARIO: 1. Applicazioni d’intelligenza artificiale nella interazione con il cittadino: trasparenza e accesso agli atti della P.A., assistenza e informazione pubblica (chatbot e FAQ), assistenza sanitaria diagnostica e terapeutica; 2. Esiti giuridici della robotizzazione e delle applicazioni dell’intelligenza artificiale.

1. Applicazioni d’intelligenza artificiale nella interazione con il cittadino: trasparenza e accesso agli atti della P.A., assistenza e informazione pubblica (chatbot e FAQ), assistenza sanitaria diagnostica e terapeutica.

Nel corso degli ultimi anni, con il progresso tecnologico in rapidissima evoluzione, si sta assistendo ad una “incursione” dei robot in diversi ambiti della vita quotidiana.

Come rilevato dal Parlamento Europeo nella Risoluzione del 16 febbraio 2017, recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica, “l’umanità si trova ora sulla soglia di un’era nella quale robot, bot, androidi e altre manifestazioni dell’intelligenza artificiale sembrano sul punto di avviare una nuova rivoluzione industriale, suscettibile di toccare tutti gli strati sociali, rendendo imprescindibile che la legislazione ne consideri le implicazioni e le conseguenze legali ed etiche, senza ostacolare l’innovazione”.

Nella medesima Risoluzione, dopo la premessa secondo cui “lo sviluppo della robotica e dell’intelligenza artificiale è potenzialmente in grado di trasformare le abitudini di vita e lavorative, innalzare i livelli di efficienza, di risparmio e di sicurezza e migliorare il livello dei servizi, nel breve e medio termine”, si rileva che “la robotica e l’intelligenza artificiale promettono di portare benefici in termini di efficienza e di risparmio economico non solo in ambito manifatturiero e commerciale, ma anche in settori quali i trasporti, l’assistenza medica, l’istruzione e l’agricoltura, consentendo di evitare di esporre esseri umani a condizioni pericolose, come nel caso della pulizia di siti contaminati da sostanze tossiche”; e si sottolinea che, se da un lato l’elevato livello di tecnologia ormai raggiunta pone le macchine nelle condizioni di poter “apprendere” e “decidere” in maniera indipendente generando risparmi e benefici di carattere economico, dall’altro suscita una serie di “preoccupazioni circa gli effetti diretti e indiretti sulla società nel suo complesso”.

È innegabile, infatti, che il ricorso a processi decisionali automatizzati e algoritmici, oltre a creare problemi di trasparenza circa la loro formazione, può avere un impatto importante per un’Autorità amministrativa o per qualsiasi altro Ente pubblico, tanto da indurre a tal proposito il Parlamento Europeo a indicare, nella suddetta Risoluzione, che “la possibilità di verifica e controllo umani devono essere integrati nei processi decisionali automatizzati e algoritmici”, in modo che sia sempre “possibile indicare la logica alla base di ogni decisione presa con l’ausilio dell’intelligenza artificiale che possa avere un impatto rilevante sulla vita di una o più persone”.

Ulteriori problemi si pongono anche con riferimento alla possibilità di accedere agli atti formati dalle Amministrazioni per mezzo di processi automatizzati, in quanto se è vero che attraverso l’istituto dell’accesso agli atti si consente di conoscere l’iter logico, ovvero le ragioni logico-giuridiche che sottendono le decisioni delle Amministrazioni e l’emanazione dei relativi atti, nel caso di processi decisionali automatizzati si potrebbero creare molteplici ragioni di natura ostativa quali, ad esempio, la riservatezza degli algoritmi utilizzati e dei relativi codici sorgente, rientrando i software nelle opere dell’ingegno. Nel merito si è espressa recentemente anche la giurisprudenza, esaminando un caso riguardante il diniego da parte del M.I.U.R. di accogliere una istanza di accesso agli atti avente ad oggetto l’algoritmo relativo al software attraverso cui sono stati gestiti i trasferimenti interprovinciali in mobilità del personale docente; diniego motivato proprio alla luce della specifica tutela del software quale opera dell’ingegno e della non assimilabilità del codice sorgente alla categoria di documento amministrativo. In tale fattispecie il TAR del Lazio, sede di Roma, con sentenza n. 3769 del 2017, ha accolto il ricorso presentato avverso il suddetto diniego del M.I.U.R., considerando il software atto amministrativo informatico, dal momento che con lo stesso si concretizza la volontà finale dell’Amministrazione.

A prescindere dagli ambiti di futura applicazione dei robot sul fronte delle Amministrazioni, di sicuro ciò che è già in uso da parte della P.A. è la c.d. chatbot, ossia un software che, simulando il comportamento umano grazie a tecniche di intelligenza artificiale, è in grado di colloquiare e interagire con gli utenti di determinati servizi. Più in particolare, si tratta di una tecnologia che consente anche di rispondere a domande aperte dei fruitori assistendoli in automatico.

Molto usate già nelle grandi imprese private per i rapporti con la propria clientela, le chatbot stanno iniziando ad essere introdotte anche all’interno delle PP.AA., soprattutto nell’ambito delle procedure di assistenza di recupero password e recupero PIN per i servizi già erogati on-line, consentendo risposte veloci in tempi altrettanto rapidi. Le chatbot rappresentano una sorta di evoluzione delle Frequently Asked Questions (FAQ), già da tempo adoperate in moltissimi siti delle Amministrazioni le quali, nel raccogliere le domande più frequentemente rivolte dagli utenti di un determinato servizio, intendono, attraverso questo sistema, fornire in maniera predeterminata una serie di risposte condividendole on-line, in modo tale da non dover essere costrette a ripeterle indefinitamente anche per telefono, con il vantaggio di ottenere un notevole risparmio di tempo non solo per gli utenti, ma anche e soprattutto per i dipendenti che, sottratti a tale incombenza, possono essere impiegati per l’espletamento di attività più specifiche.

Come le FAQ pubblicate sui siti internet, anche le chatbot possono essere disponibili gratuitamente durante l’intero arco della giornata e usate in diversi ambiti e per diverse finalità, tra cui la ricerca di Open Data, la raccolta di questionari o l’assistenza dei cittadini nella procedura della raccolta differenziata. In quest’ultimo caso il bot può essere addirittura programmato in modo tale da indicare ai cittadini in maniera quasi immediata in quale contenitore gettare specifici rifiuti dopo aver ricevuto da parte loro una richiesta digitale. Inoltre, una Pubblica Amministrazione “social”, dotata di apposito account Facebook o Twitter – come sempre più spesso siamo soliti rilevare – può agevolmente rispondere alle domande o richieste dei cittadini attraverso gli specifici bot già esistenti per tali piattaforme.

Un settore dell’Amministrazione nei quali i bot possono fare la differenza nei rapporti con gli utenti rispetto al passato è sicuramente quello della mobilità. In tale ambito molti gestori del servizio di Trasporto Pubblico Locale hanno già da tempo messo a disposizione degli utenti applicazioni gratuitamente scaricabili dai comuni smartphone, al fine di indicare gli orari di arrivo dei bus o dei treni tracciandone anche in tempo reale il percorso. Alcuni di questi gestori hanno anche attivato i propri profili social connettendo agli stessi delle chatbot capaci di interagire in tempo reale con gli utenti[1].

Tale dinamica, già sperimentata con successo nel settore dei trasporti, sfruttando le tecnologie sempre più potenti e diffuse, può essere facilmente trasferita dalle Amministrazioni anche in altri settori di particolare rilevanza per gli utenti di servizi pubblici come quello del turismo e della sanità, nei quali si registrano già alcune applicazioni che, fondandosi sul meccanismo sopra indicato e sfruttando l’intelligenza artificiale, consentono interazioni facili e immediate con gli utenti. Ma sebbene ciò sia ancora poco diffuso tra le Pubbliche Amministrazioni, dove l’incidenza del personale “nativo digitale” è in termini percentuali ancora poco rilevante, si può supporre e sperare che in un prossimo futuro tutte le PP.AA. possano offrire questo tipo di servizi ampliandone anche gli ambiti.

Si sta infatti parlando molto della possibilità di introdurre i robot soprattutto nell’ambito sanitario e dell’assistenza agli anziani, anche al fine di ridurne gli elevati costi; il che pone, però, tutta una serie di problematiche importanti connesse al discorso dell’istruzione e formazione del personale medico e paramedico nonché al rischio di un possibile attacco da parte di hacker con la grave conseguenza di comprometterne la funzionalità cancellandone perfino la memoria.

Il rapido avanzamento del progresso tecnologico ha portato a sviluppare robot sempre più in grado di interagire con gli esseri umani e di comprenderne le richieste ed esigenze. Esistono ormai, infatti, prototipi di robot in grado di assistere persone anziane e soggetti con problemi motori. Lo sviluppo dell’Intelligenza Artificiale e il suo impiego nel settore sanitario potrebbe essere dunque, in un futuro abbastanza prossimo, la nuova frontiera di un’Amministrazione moderna in grado di migliorare la vita dei cittadini-utenti. Sono allo studio infatti sia tute riabilitative in grado di monitorare e assistere i movimenti del corpo sia speciali guanti robotici in grado di interpretare i segnali biometrici direttamente dai muscoli per indirizzare i movimenti. Esistono anche strumenti in grado di calcolare in pochi secondi le calorie e l’apporto proteico dei cibi in essi inseriti in modo da poter aiutare i medici nella gestione degli aspetti di tipo nutrizionale dei pazienti ricoverati negli ospedali o sottoposti a cure riabilitative.

La più volte citata Risoluzione del Parlamento Europeo del 16 febbraio 2017, in tale ambito, non solo “riconosce, d’altra parte, che i robot potrebbero svolgere compiti di assistenza automatizzati e agevolare il lavoro degli assistenti sanitari, migliorando, nel contempo, le cure fornite dal personale sanitario e rendendo il percorso di riabilitazione più mirato, consentendo così al personale medico e agli assistenti di dedicare più tempo alla diagnosi e a una migliore pianificazione delle opzioni terapeutiche”, ma sottolinea anche la necessità di “rispettare il principio dell’autonomia supervisionata dei robot, in base al quale la programmazione iniziale di cura e la scelta finale sull’esecuzione spetteranno sempre a un chirurgo umano”.

Il tema del controllo umano sui robot sembra essere preso seriamente in considerazione a dimostrazione che sussiste un fondato timore sulla possibilità che l’uomo possa non essere più in grado di gestire determinate e imprevedibili dinamiche, tanto che nei 19 articoli che compongono le “Linee guida per la regolamentazione della robotica”[2] – una sorta di vera e propria Carta dei Diritti e dei Doveri dei robot – viene specificato all’art. 13 che “gli esseri umani non potranno mai tramutarsi in robot, né totalmente né in parte” e che “l’utilizzo di protesi robotiche dovrà essere consentito solo per scopi terapeutici”.

Nel 2015 alcuni ricercatori del Mount Sinai Hospital di New York hanno dato vita ad un sistema, chiamato Deep patient, in grado di analizzare la banca dati dell’ospedale relativa a circa 700.000 pazienti e di prevedere efficacemente sui nuovi pazienti il sorgere di alcune patologie. Più nello specifico, attraverso l’analisi di alcune condizioni ricorrenti nei dati dei pazienti già ospedalizzati, il sistema è stato in grado di indicare chi avrebbe avuto un elevato rischio di sviluppare una serie di patologie, tra le quali il tumore al fegato, e, addirittura, malattie molto difficili da prevedere da parte dei medici quali quelle di natura psichiatrica come la schizofrenia.

È evidente che tutto ciò comporta un grave problema di responsabilità nel caso in cui le previsioni e la diagnosi formulata o la cura suggerita dall’intelligenza artificiale si dovessero rivelare sbagliate[3].

Con l’allungamento della speranza di vita e l’invecchiamento della popolazione molti Stati stanno pensando di favorire un rapido sviluppo di specifici tipi di robot nel campo sanitario. Il che ovviamente comporterebbe una serie di conseguenze sulla sfera giuridica delle persone assistite attraverso gli strumenti dell’intelligenza artificiale. Com’è stato notato, «più un robot sarà intelligente, o meglio, dotato di una intelligenza artificiale più sofisticata […], più crescerà la sua capacità di autodeterminarsi, fino ad arrivare al punto di potergli attribuire una sorta di “soggettività giuridica” se non, addirittura, una “capacità giuridica”»[4]. Quanto maggiore sarà la capacità di autodeterminarsi tanto maggiore sarà l’eventuale responsabilità in capo ai soggetti che stanno dietro al robot: produttore, programmatore, utilizzatore[5]. Sempre in riferimento alla responsabilità dei diversi soggetti coinvolti, è stato osservato che essa «può variare anche in base al tipo di abilità e capacità di cui è dotato il robot o all’impiego per il quale lo stesso robot è utilizzato, non solo in relazione all’ambiente di riferimento (sede stradale, abitazione privata, struttura sanitaria ecc.), ma anche in base al contesto di utilizzo (persone coinvolte, minori, anziani, persone con ridotte capacità sensoriali o di mobilità ecc.)»[6].

2. Esiti giuridici della robotizzazione e delle applicazioni dell’intelligenza artificiale

La diffusione ormai invasiva della robotica e dell’intelligenza artificiale pone rilevanti questioni giuridiche, tra le quali due in particolare: quella della tutela delle macchine dotate d’intelligenza artificiale e quella della responsabilità delle loro azioni. È necessario, al riguardo, analizzare le varie tipologie di macchine e il loro livello di autonomia. Attualmente si possono distinguere tre diversi tipi di robot, a seconda del loro diverso grado di autonomia: robot c.d. teleoperati, ossia strumenti comandati a distanza dall’uomo senza la cui guida il robot non potrebbe neppure funzionare in quanto privo di qualsiasi livello di autonomia; robot ad autonomia cosiddetta “debole”, in cui l’essere umano «si limita a fornire un input iniziale e un programma fornisce tutte le regole di comportamento del robot»[7] che, quindi, è in grado di auto-guidarsi; robot ad autonomia “forte”, ossia macchine molto sofisticate capaci di auto-programmarsi e, in alcuni casi, di apprendere dalla propria esperienza. Con riferimento specifico a quest’ultimo aspetto si parla di deep learning (apprendimento profondo), ossia un esteso insieme di algoritmi basato su Reti Neurali Artificiali che rappresentano modelli di calcolo, valutazione ed elaborazione elettronica ispirati ai meccanismi di funzionamento del cervello umano. La differenza sostanziale di categorie dei robot basata sul loro grado di autonomia e le diverse conseguenze giuridiche che ne possono scaturire non sono sfuggite al Parlamento Europeo che, nella sopra menzionata Risoluzione del 16 febbraio 2017, nel trattare il tema della responsabilità (punti 49-59), «invita il legislatore a definire una tassonomia dei robot in relazione al grado di autonomia della macchina e anche alla loro interazione con l’uomo e con l’ambiente»[8]. Nel punto 56 della Risoluzione, il Parlamento Europeo ritiene infatti che, “in linea di principio, una volta individuati i soggetti responsabili in ultima istanza, la loro responsabilità dovrebbe essere proporzionale all’effettivo livello di istruzioni impartite al robot e al grado di autonomia di quest’ultimo, di modo che quanto maggiore è la capacità di apprendimento o l’autonomia di un robot e quanto maggiore è la durata della formazione di un robot, tanto maggiore dovrebbe essere la responsabilità del suo formatore”.

Come rilevato, «la attuale natura ancora morfosintattica e inconsapevole del computer non solo non consente di superare la dicotomia cosa-persona, ma neppure la dicotomia logica-semantica»[9]. Tuttavia, il progresso tecnologico che rapidamente sta portando alla creazione di robot sempre più avanzati ed elaborati tanto da essere in grado di auto-apprendere e auto-programmarsi, pone il problema, sul piano giuridico, se sia possibile «sganciare il robot da chi sta dietro le quinte come produttore, programmatore e utilizzatore»[10].

Più i robot esprimono maggior livello di autonomia, più si tende a non ritenerli dei semplici strumenti nelle mani di altri soggetti, come ad esempio il proprietario o il produttore. «L'autonomia dei robot solleva la questione della loro natura alla luce delle categorie giuridiche esistenti […]. Se cioè devono essere considerati soggetti o oggetti di diritto»[11]. La risposta a tale domanda è rilevante per tentare di risolvere le questioni giuridiche connesse ai temi, sopra citati, della tutela e della responsabilità delle macchine intelligenti. Sotto il profilo della tutela, attualmente, in quanto entità inconsapevoli, tali tipologie di macchine possono essere protette, come cose secondo il valore (non soggettività), dagli strumenti giuridici del diritto d’autore, del brevetto e del segreto industriale[12]. Sotto il profilo della responsabilità, la loro natura ancora di cose non permette di produrre una responsabilità diretta delle azioni ma, eventualmente, solo indiretta.

Com’è noto, infatti, la responsabilità civile extracontrattuale da atto illecito trova il suo fondamento nell’art. 2043 del Codice civile, secondo cui “qualunque fatto doloso o colposo che cagiona ad altri un danno ingiusto, obbliga colui che ha commesso il fatto a risarcire il danno”. Per aversi tale tipo di responsabilità, sul piano oggettivo, oltre al fatto dovranno sussistere anche un danno ingiusto e un nesso di causalità tra fatto e danno, mentre sul piano soggettivo dovrà esserci dolo o colpa. L’obbligazione di risarcire il danno ingiusto grava, di norma, su colui che ha commesso il fatto, anche se esistono ipotesi di cosiddetta “responsabilità indiretta” o per fatto altrui, in base alle quali le conseguenze dannose di alcuni eventi lesivi vengono fatte ricadere su determinati soggetti diversi da coloro che hanno commesso il fatto, nonché ipotesi di “responsabilità oggettiva” che, prescindendo dalla colpa, richiedono solo l’esistenza del nesso causale.

Com’è stato autorevolmente rilevato, «dato che sembra improponibile far sorgere in capo a un robot l’obbligazione di risarcimento, essendo totalmente privo il suo comportamento di dolo o colpa, non resterebbe altra via che ricorrere alla c.d. responsabilità indiretta […] o alle responsabilità senza colpe o oggettive»[13].

In particolare, a seconda del grado di autonomia dei robot e della loro capacità di movimento, sembrano trovare applicazione l’art. 2050 del Codice civile in tema di responsabilità per l’esercizio di attività pericolose (“Chiunque cagiona danno ad altri nello svolgimento di un’attività pericolosa, per sua natura o per la natura dei mezzi adoperati, è tenuto al risarcimento, se non prova di aver adottato tutte le misure idonee a evitare il danno”) e l’art. 2052 c.c. sulla responsabilità del proprietario – o di chi se ne serve – per il danno cagionato da animali (“Il proprietario di un animale o chi se ne serve per il tempo in cui lo ha in uso, è responsabile dei danni cagionati dall’animale, sia che fosse sotto la sua custodia, sia che fosse smarrito o fuggito, salvo che provi il caso fortuito”)[14].

È evidente che questa impostazione che tende a far rientrare la responsabilità per danni provocati dai robot nelle fattispecie di responsabilità indirette e oggettive[15], previste dal nostro ordinamento, può risultare valida e fondata fino a quando i robot, sia pure sulla base di un diverso grado di autonomia, resteranno comunque strumenti nelle mani dell’uomo. Ma è altrettanto evidente che «il giorno in cui i robot avranno autonomia totale, le categorie di responsabilità e personalità andranno fortemente rivisitate con particolare riferimento al nesso di causalità»[16]. E nel caso in cui arrivassero ad avere una condizione di coscienza, la responsabilità potrebbe transitare da quella indiretta e oggettiva a quella diretta[17].

Non siamo ancora in grado di prevedere con esattezza se e quando tutto ciò avverrà, tuttavia è importante prendere atto del fatto che l’intelligenza artificiale è ormai giunta ad un punto tale da poter delineare l’avvio di un radicale cambiamento delle nostre abitudini e, più in generale, delle nostre vite, con ricadute sempre maggiori anche nella sfera dell’Amministrazione Pubblica, dove da poco è stata istituita anche una Task force sull’intelligenza artificiale, composta da 30 esperti e promossa dall’AgID, allo scopo di studiare le opportunità offerte dalla diffusione dell’intelligenza artificiale nella PA per migliorare i servizi pubblici, semplificando, così, la vita ai cittadini[18].

Alla luce di ciò risulta imprescindibile, da parte dei vari ordinamenti, valutare gli effetti e le conseguenze sul piano giuridico delle diverse forme di impiego dell’intelligenza artificiale. E, di sicuro, la Risoluzione del Parlamento Europeo del febbraio 2017, tracciando in merito le linee guida, può considerarsi un importante passo intrapreso verso questa direzione.


[1] Si segnala a tal riguardo la chatbot del Gruppo Torinese Trasporti che, tramite l’applicazione di messaggistica istantanea Telegram, ha reso disponibile un apposito servizio che, consentendo di inserire il nome della fermata d’interesse o il suo numero, permette facilmente di visualizzare l’orario dei passaggi in tempo reale nonché una mappa della zona in cui è situata la fermata indicata.

[2] Alla stesura del documento ha contribuito la Scuola Superiore Sant’Anna di Pisa nell’ambito del progetto “RoboLaw” (www.robolaw.eu) coordinato dalla Prof.ssa Erica Palmerini.

[3] Il problema della responsabilità si pone non solo per i medici che utilizzano tali strumenti, ma anche per le ditte produttrici nel caso di malfunzionamento. Connesso al problema della responsabilità è anche quello di natura assicurativa.

[4] MAGLIO G., “Robot in Sanità, quali norme per l’innovazione”, in www.agendadigitale.eu.

Sull’argomento cfr. anche l’ampio saggio di TADDEI ELMI G., ROMANO F., Il robot tra ius condendum e ius conditum, in “Informatica e diritto”, vol. XXV, 2016, n.1, pp. 115-137.

[5] Ibidem.

[6] MAGLIO G., “Robot in Sanità, quali norme per l’innovazione”, in www.agendadigitale.eu.

[7] TADDEI ELMI G., ROMANO F., Il robot tra ius condendum e ius conditum, in “Informatica e diritto”, vol. XXV, 2016, n.1, p. 124.

[8] Ibidem.

[9] TADDEI ELMI G., ROMANO F., Il robot tra ius condendum e ius conditum, in “Informatica e diritto”, vol. XXV, 2016, n.1, p. 116.

[10] Ibidem.

[11] IASELLI M., Robot con intelligenza artificiale, verso una soggettività giuridica?, pubblicato il 21/02/2017 in http://www.altalex.com.

[12] Cfr. TADDEI ELMI G., I diritti dell’intelligenza artificiale tra soggettività e valore: fantadiritto o ius condendum?, in Il meritevole di tutela (a cura di L. Lombardi Vallauri), Giuffrè, Milano, 1990, pp. 685-711.

[13] TADDEI ELMI G., ROMANO F., Il robot tra ius condendum e ius conditum, in “Informatica e diritto”, vol. XXV, 2016, n.1, p. 126.

[14] Sul tema cfr. SCIALDONE M., Il diritto dei robot: la regolamentazione giuridica dei comportamenti non umani, in AA.VV., La rete e il fattore C. Cultura, Complessità, Collaborazione, a cura di Emma Pietrafesa, Flavia Marzano, Tiziana Medici, vol. II, Stati Generali dell’Innovazione, Roma, 2016, pp. 76-80.

[15] Va rilevato che un richiamo espresso al già citato art. 2050 del Codice civile, in tema di responsabilità per l’esercizio di attività pericolose, è contenuto nel primo comma dell’art. 15 del Codice in materia di protezione dei dati personali (D. lgs. n. 196 del 2003) secondo cui “chiunque cagiona danno ad altri per effetto del trattamento dei dati personali è tenuto al risarcimento ai sensi dell’articolo 2050 del codice civile”. Ciò a dimostrazione di come il legislatore reputi il trattamento dei dati personali un’attività potenzialmente pericolosa. Anche l’art. 32 del CAD, nell’indicare gli obblighi del titolare del certificato di firma, tra cui quello di “assicurare la custodia del dispositivo di firma” e di “adottare tutte le misure organizzative e tecniche idonee ad evitare danno ad altri”, sembra, per com’è formulato, richiamare implicitamente l’art. 2050 del Codice civile.

[16] TADDEI ELMI G., ROMANO F., Il robot tra ius condendum e ius conditum, in “Informatica e diritto”, vol. XXV, 2016, n.1, p. 128.

[17] Ibidem.

[18] Simultaneamente all’avvio dei lavori sull’intelligenza artificiale da parte della Task force dell’Agenzia per l’Italia Digitale, è stato attivato il sito https://ia.italia.it/ che segnala, tra l’altro, una serie di studi rilevanti in materia, anche di carattere internazionale, e riporta documenti prodotti dalla stessa Task force, come il Libro Bianco sull’Intelligenza Artificiale al servizio del cittadino, apparso nel mese di marzo del 2018.






Condividi