Kritik_Se / Allora / Altrimenti… ti uccido
Il testo pubblicato su Kritik. Prontuario di sopravvivenza all’agonia del capitale (DeriveApprodi, 2019) fa parte un libro collettivo volutamente senza firme di autori
Siamo a Tempe, Arizona, è notte e i fari di una Volvo XC90 inquadrano un pedone che spinge una bicicletta carica di sacchetti e borse. Il sistema Uber della macchina a guida autonoma prima vede un oggetto sconosciuto, poi un veicolo, infine una bicicletta. Circa un secondo prima di colpire e uccidere, il sistema ha determinato che era necessario schiacciare i freni. E’ accaduto che il software non ha riconosciuto la vera natura dell’ostacolo, l’ha ritenuto un “falso positivo” come i gas di scarico delle macchine o i pezzi di cartone per strada. Può un sistema imitare quella capacità tutta umana di capire la differenza fra vista e visione, cioè capire e interpretare quello che vediamo? Cosa si può ignorare o cosa è fondamentale riconoscere è una delle sfide principali per chi sviluppa software per la guida autonoma.
Se/Allora/Altrimenti… rappresenta la logica dell’informatica classica. Gli “agenti” artificiali (robot o programmi, hardware e software) sono deterministici, prevedibili, controllabili, ma quando devono capire il contesto in cui si trovano e selezionare l’azione migliore da intraprendere, allora l’algoritmo, elemento finito di istruzioni, deve imparare attraverso esempi, tantissimi esempi. Da qui l’enfasi sull’apprendimento automatico, la nuova forma di algoritmo che ha la capacità di riscrivere le regole del proprio codice. Neil Johnson, docente di fisica all'Università di Miami, analizzando i dati sulle contrattazioni finanziarie a partire dall'introduzione di algoritmi (HFT) che comprano e vendono titoli ininterrottamente e ad altissima velocità, basandosi sulle informazioni disponibili sul mercato senza alcuna necessità di interventi umani, definì questi algoritmi “predatori”: “Con questo nuovo sistema di algoritmi robotici, il comportamento dei mercati subisce una fondamentale e repentina transizione verso un mondo in cui le convenzionali teorie sul mercato cessano di essere valide”. Il risultato di questa evoluzione è un sistema finanziario visibile solo alle macchine, ma che può avere effetti concreti sulla vita delle persone. Nel maggio 2010 l’indice americano perse all’improvviso circa 600 punti in 5 minuti, per poi rimbalzare altrettanto bruscamente. Tale evento, il crollo più grande e rapido nella storia del Down Jones, venne spiegato con il termine “flash crash”, ossia “crollo repentino”, dovuto all’utilizzo di un programma di trading automatico ad alta frequenza.
Neanche gli scienziati informatici riescono a capire in quale punto del processo decisionale l’algoritmo possa sbagliare una previsione, eppure le armi autonome letali sono divenute campo di battaglia di una corsa agli armamenti algoritmica. Questo problema noto come black box (scatola nera) è al centro di numerosi studi. Fra i programmi di ricerca per tentare di aprire la “scatola nera” c’è quello gestito da DARPA (Defense Advanced Research Project Agency), l’Explainable AI (XAI)2. Alla base vi è l’idea che i sistemi intelligenti dovranno essere capaci di produrre modelli decisionali spiegabili per permettere agli esseri umani di capire e gestire efficacemente le prossime generazioni di IA. DARPA sta lavorando anche ad una nuova tecnologia di “machine learning” (apprendimento automatico)3: “vogliamo il rigore dell’automazione con la flessibilità dell’umano” che superi il fenomeno chiamato “oblio catastrofico”. Questo fenomeno accade quando l’intelligenza artificiale incontra qualcosa che non riconosce per cui cade in errore. E’ una situazione in cui l’apprendimento del nuovo oggetto sconvolge la conoscenza di tutte le altre cose che il sistema sapeva affrontare. In sostanza si vuole trasformare ogni interazione dell’AI in un’opportunità per raccogliere dati esponendola a nuovi dati ed esperienze affinché impari come avviene in un cervello biologico. Il progetto “Collection and Monitoring via Planning for Active Situational Scenarios” (COMPASS)4 mira invece a sviluppare un software in grado di discernere le intenzioni di un avversario. Entrare nella testa dell’avversario, cercando di carpire le intenzioni nella nebulosa “zona grigia” di un conflitto moderno, può aiutare i comandanti a prendere decisioni più efficaci. Non è un programma orientato allo sviluppo di sensori, realtà virtuale o hardware, ma ad un software. L’obiettivo è fornire strumenti di analisi e di supporto decisionale per ridurre l’ambiguità del nemico e dei suoi obiettivi.
Tutti questi programmi fanno emergere l’enorme attenzione posta sull’apprendimento automatico da parte del Department of Defense USA verso le macchine che devono ricavare schemi significativi da innumerevoli dati (big data). Uno degli ostacoli al progresso dell’apprendimento automatico è però la “riproducibilità”: per essere riproducibile, un risultato ottenuto da una computazione deve corrispondere a quello elaborato da un’altra macchina con hardware differente dallo stesso algoritmo, e con lo stesso training set (insieme di dati che vengono utilizzati per addestrare un sistema). La riproducibilità computazionale si basa sulla premessa che la scienza riproducibile rafforza l'efficienza dell'impresa scientifica globale5. Condividere il codice completo utilizzato per gli esperimenti si scontra però con la segretezza degli algoritmi protetta dal diritto sulla proprietà intellettuale. In gioco non vi sono solo interessi economici, visto che il potenziale dell’intelligenza artificiale tocca ogni aspetto della vita, poiché è questa tecnologia in sé ad essere entrata fortemente nella cerchia della competizione geopolitica senza esclusione di colpi. Ecco perché la scelta di utilizzare algoritmi per automatizzare alcuni tipi di decisioni è politica.
Ciò che non è riproducibile è l’intelligenza umana. Secondo il matematico e astrofisico Roger Penrose l ‘AI può imitare l’intelligenza umana attraverso algoritmi ma non può riprodurla. Nel suo intervento su “Intelligenza Artificiale vs. Intelligenza Naturale” che si è tenuto a Milano presso il Centro Congressi della Fondazione Cariplo, lo scienziato ha spiegato che intelligenza naturale e intelligenza artificiale sarebbero incommensurabili, in quanto la prima non si dà senza comprensione e coscienza di sé. Nessun dispositivo della AI comprende ciò che sta facendo. La volontà richiede comprensione e la comprensione richiede consapevolezza, cioè coscienza che le macchine non hanno. Quando AlphaGo, creata da Google, ha battuto il giovane cinese Ke Jie in uno dei giochi di strategia più complessi al mondo, il gioco del Go, si era parlato di un grande progresso nei campi del deep learning e del reinforcement learning. Ma non bisogna dimenticare che IA impara matematicamente, non concettualmente. Il gioco di Go è servito ai filosofi Deleuze-Guattari per formulare i concetti di de-soggettivazione e de-codificazione. "Le pedine hanno una funzione anonima, collettiva o alla terza persona. Sono gli elementi di un macchinico non soggettivo, senza proprietà intrinseche, ma solamente di situazione”. Anche Vo Nguyen Giap, capo dei partigiani comunisti Vietminh e delle Forze Armate del Vietnam del Nord, si era ispirato al gioco del Go (“Gli Scacchi di Mao” di Scott. A. Boorman). Zone libere e zone controllate dal nemico si sovrappongono, si intersecano e si circondano a vicenda. Il filosofo Emanuele Severino dialogando sul tema “Intelligenza Artificiale vs. Intelligenza Naturale” ha sostenuto: “dobbiamo riconoscere il fatto che non conosciamo altro strumento, se non quello della politica, per tentare di governare i processi di trasformazione in atto”. Si ritorna così alla antica contrapposizione fra tecnica e natura che Marx risolveva con l'abolizione della proprietà privata.
Negli Stati Uniti è il Pentagono a voler prendere in mano il progresso scientifico. Il progetto di estrazione automatizzata della conoscenza scientifica, o “ASKE”, mira ad una soluzione capace di costruire uno strumento di intelligenza artificiale in grado di generare, testare e rinegoziare automaticamente le proprie ipotesi scientifiche: “il sistema potrebbe essere utilizzato per verificare i risultati di studi scientifici e monitorare eventi economici, politici, sociali o ambientali"6. Una volta sviluppato, il sistema ASKE agirebbe più o meno come uno scienziato , prendendo i modelli di ricerca esistenti e aggiornandoli automaticamente per tenere conto delle nuove informazioni. In uno dei tanti report sull’intelligenza artificiale, i collaboratori del Center for a New American Security (CNAS) hanno posto fra gli obiettivi principali perseverare la leadership tecnologica americana, sostenere l’uso commerciale e mitigare il rischio catastrofico. I progressi nel campo dell’intelligenza artificiale, soprattutto quelli legati all’apprendimento automatico, rientrano nella strategia di sicurezza nazionale e hanno il compito di guidare il cambiamento nelle aree della superiorità militare, superiorità dell’informazione e superiorità economica.
Per quanto riguarda la superiorità militare, Gill Pratt, ex Program Manager DARPA e leader di DARPA Robotics Challenge, fa riferimento al periodo in cui la vita sulla terra subì una rapida diversificazione chiamata "Esplosione Cambriana". E’ possibile che gli attuali sviluppi tecnologici potranno innescare un'esplosione simile nella diversificazione e nell'applicabilità della robotica. Due nuove tecnologie emergenti , "Cloud Robotics" e "Deep Learning", possono sfruttare tecnologie di base quali l’elaborazione, archiviazione dei dati le comunicazioni7. Nel campo della sicurezza informatica e della guerra cibernetica si possono migliorare i sistemi di monitoraggio considerando che vi è un aumento di reati. Ad esempio nel tipico attacco informatico più impegnativo, l’Advanced Persistent Threat, l’attaccante cerca le debolezze e gli errori nella sicurezza. Con AI e l’apprendimento automatico la caccia alle debolezze potrà essere automatizzata, per cui i futuri ATP saranno più vincolati al capitale (risorse disponibili) che al lavoro e al talento. Se queste applicazioni rafforzeranno le capacità informatiche non solo di potenti Stati nazionali, ma anche di piccoli Stati e attori non statali, l’attenzione dovrà essere posta sull’equilibrio degli investimenti in ricerca e sviluppo e dal ritmo del processo tecnologico.
Per quanto riguarda la superiorità delle informazioni, IA sta migliorando le capacità di creazione, raccolta e analisi dei dati. Nelle operazioni di intelligence può significare che alla quantità di fonti deve corrispondere la capacità di discernere la verità. E’ sempre più facile mentire in modo persuasivo, e la contraffazione di supporti audio e video può mettere alla prova la fiducia nelle istituzioni statali. La creazione di dati e contenuti , che include la produzione di fotografie, video e testi, porterà alla necessità di aumentare la sorveglianza in particolare per gli Stati nazionali. I falsi generati rappresenteranno una sfida per cui gli Stati Uniti hanno bisogno di un pensiero strategico sull’intelligenza artificiale come quello che la Rand Corporation ha studiato nel valutare la strategia delle armi nucleari. Naturalmente le domande a cui si dovrà dare una risposta sono molteplici, ma fra tutte si dovrà capire quali tecnologie militari di IA sono a duplice uso militare e in che modo la crescita delle capacità influenzerà l’equilibrio internazionale del potere economico. Ottenere una superiorità economica significa portare ad una nuova rivoluzione industriale. Andrew Ng, professore di Standford, ha illustrato come intelligenza artificiale (AI) stia trasformando industria e imprese: “cambierà il mondo della fabbrica proprio come cento anni fa fece la corrente elettrica”8. Mette però in guardia sulla troppa eccitazione riguardo AI perché è ancora estremamente limitata rispetto all'intelligenza umana (ad esempio manca di intuizione). Una conseguenza è il calo della domanda di manodopera per cui bisognerà ridisegnare il rapporto fra capitale e lavoro in tutto il mondo. I responsabili delle politiche dovranno pertanto supportare gli interessi delle più importanti istituzioni di ricerca sulla IA che attualmente vivono relazioni cariche di tensioni.
Nel 2017 il segretario alla Difesa americano, Jim Mattis, aveva effettuato la sua prima visita ufficiale presso l'unità sperimentale per l'innovazione del Pentagono, o DIUx. L’unità, creata da Ash Carter ai tempi di Obama per integrare l'innovazione del settore privato al servizio del Department of Defense, ha affrontato più volte le critiche di alcuni legislatori repubblicani che ne hanno messo in dubbio il valore e l'organizzazione. Contemporaneamente il presidente Trump si scontrava con il settore tecnologico su una serie di problemi, tra cui immigrazione, cambiamenti climatici e privacy. La resistenza della Silicon Valley a collaborare con il governo, in particolare con il Pentagono, ha sollevato dubbi sulla fattibilità dei piani del segretario alla Difesa James Mattis di sfruttare la tecnologia commerciale all'avanguardia a fini militari. Ma tutte le indicazioni sono che il Dipartimento si sta muovendo a tutta velocità su IA, con o senza Google vista la sua resistenza al progetto Maven. Sebbene Google collabori con il Pentagono da anni, tremila dipendenti di Google avevano sottoscritto una lettera di protesta 10 chiedendone la chiusura per motivi etici. Infatti il nuovo lucroso contratto che il Pentagono dovrà aggiudicare, il “Joint Enterprise Defense Infrastructure”9, ha scatenato una vera e propria guerra tra i colossi tecnologici. Il progetto cloud del Pentagono dovrà trasferire enormi quantità di dati a un sistema di cloud sicuro, ma a differenza del progetto Maven, che aveva specifiche implicazioni dirette per l’uso militare dei droni tramite l’impiego di intelligenza artificiale e machine learning per l’analisi delle immagini aeree registrate dai droni durante le missioni nelle zone di conflitto, nel progetto JEDI il confine fra militare-civile appare sfumato.
Ancora non esiste una definizione ufficiale a livello internazionale sulle armi autonome connesse allo sviluppo dell’intelligenza artificiale e alla robotica, sebbene vi siano già applicazioni da parte dell’industria bellica. La dizione prevalente è quella di armi autonome letali, ma da sola non consente una regolamentazione sia per quanto riguarda il loro uso sia la proibizione. Tuttora la discussione è centrata sulla distinzione fra armi autonome e armi altamente automatizzate dotate di algoritmi che consentono di rispondere ad una minaccia e di agire in modo indipendente una volta dispiegate. Un sistema di armi autonome può trovare applicazione anche nella guerra cibernetica. Il Dipartimento della Difesa ha chiarito che per JEDI cerca un unico fornitore che rispetti tutti i requisiti e possieda le certificazioni richieste per gestire anche dati Top Secret. Questo approccio è stato oggetto di proteste da parte di Oracle, Ibm, Microsoft e Google, perché questo equivale a favorire Amazon che si era già aggiudicata, nel 2013, un contratto decennale da 600 milioni di dollari per ospitare il cloud della CIA. Nel frattempo Microsoft ha rinnovato un contratto preesistente tra l’Office of the Director of National Intelligence (che include un totale di 17 agenzie, tra cui CIA, NSA e parti del dipartimento della Difesa) e il gruppo dell’IT Dell che ha Microsoft come sub-contractor. Oracle ha depositato una protesta formale presso il GAO (Government Accountability Office) che vigila sulla regolarità delle procedure d’appalto pubbliche. Oracle sostiene che la gara di JEDI è impropria perché non garantisce un’adeguata concorrenza tra i diversi fornitori: “è contraria alla strategia multi-cloud dell’industria che promuove la concorrenza, incentiva l’innovazione e porta a un abbassamento dei prezzi”.
“Lo sviluppo tecnologico è destinato a mutare profondamente i rapporti di potere nella società globale”. Questa frase pronunciata durante il convegno “Big Data e Privacy. La nuova geografia dei poteri" è un grido di allarme sui rischi che il capitalismo digitale e il nuovo business (le sette sorelle oggi sono Google, Apple, Amazon, Yahoo, Facebook, Microsoft, Alibaba) pone alla società se non si apre un dibattito complessivo chiaro e democratico : sciami di droni, veicoli autonomi, riconoscimento facciale e piattaforme di sorveglianza automatizzate per sopprimere il dissenso o per operazioni di polizia predittiva, attacchi hacker automatizzati, sintesi vocali per imitazioni, informazioni ricavate dai social media, inquinamento di dati, sono solo alcuni esempi applicativi dell’intelligenza artificiale. Esperti di intelligenza artificiale e 50 importanti accademici provenienti da circa 30 Paesi hanno annunciato che boicotteranno l’Istituto Superiore di Scienza e Tecnologia della Corea del Sud (KAIST) perché ha realizzato un centro di ricerca (Centro di ricerca per la convergenza della difesa nazionale e dell’intelligenza artificiale) per progettare missili, sottomarini e droni basati sull’intelligenza artificiale. Nella lettera al presidente dell’Istituto11 si legge che “Come ricercatori e ingegneri che lavorano sull’intelligenza artificiale e robotica, siamo molto preoccupati per l'apertura di un "Centro di ricerca per la convergenza della difesa nazionale e dell'intelligenza artificiale" presso KAIST in collaborazione con Hanwha Systems, la principale società di armamenti della Corea del Sud. È stato riferito che gli obiettivi di questo Centro sono "sviluppare tecnologie di intelligenza artificiale (AI) da applicare alle armi militari, unendosi alla competizione globale per sviluppare armi autonome”.
Particolarmente inquietanti sono le notizie che annunciano l’utilizzo dell’intelligenza artificiale come arma di polizia predittiva. Si tratta di un sistema che promette di capire se l'autore di diversi reati è la stessa persona, prevedere le mosse di un trasgressore, individuare il luogo e il tempo in cui i crimini possono verificarsi, e quindi intervenire prima che questi accadano. Per ottenere questo obiettivo si utilizzerebbe il metodo di "deep learning". Il Giappone prevede di usare un sistema simile nelle Olimpiadi di Tokio del 2020, negli USA la polizia usa il software “PredPol” che utilizza un algoritmo di apprendimento automatico per calcolare le sue previsioni. Aggiorna l'algoritmo ogni giorno con nuovi elementi appena ricevuti dal dipartimento. Queste informazioni provengono dal sistema di gestione dei record dell'agenzia. Il Washington Post ha dedicato un articolo a questa notizia intitolato “La polizia sta usando software per prevedere il crimine. È un "santo graal" o è prevenuto contro le minoranze?” Ferguson, professore di giurisprudenza dell'Udc, ha affermato che la polizia predittiva solleva una serie di preoccupazioni e domande fondamentali. Mette in discussione come la polizia possa garantire l'accuratezza dell’enorme quantità di dati su cui i sistemi si affidano. Un errore potrebbe gettare ingiustamente sospetti su un luogo o individuo. Palantir Technologies, società che lavora con il Dipartimento della Difesa americana, finanziata dalla Cia, ha usato segretamente un brevetto per tecnologie di previsione del rischio di criminalità. E’ stato utilizzato dal Pentagono in Afghanistan e in Iraq nel 2009 poiché in tempo di guerra è più facile ignorare le libertà civili. La sua piattaforma software commerciale, Metropolis, utilizza l'analisi predittiva per aiutare le aziende sui mercati visto che i consumatori ne sono diventati l’elemento forte.
L’anno scorso presso il Future of Humanity Institute dell’Università di Oxford si è tenuto un seminario sull’uso improprio delle tecnologie emergenti nell’apprendimento automatico e nell’intelligenza artificiale. Si sono considerati i rischi come quelli dell’hacking automatico, propaganda mirata, sistemi d’arma autonomi o semi-autonomi e le sfide politiche poste dalla proprietà e dalla regolamentazione dei sistemi avanzati di intelligenza artificiale. Si sono individuate tre aree: sicurezza digitale (uso della sintesi vocale per la rappresentazione, ecc.), sicurezza fisica (ad esempio sciame di micro-droni), sicurezza politica (dalla sorveglianza alla persuasione e inganno, analisi dei comportamenti, stati d’animo e convinzioni umane sulla base dei dati disponibili). Anche se può sembrare del tutto negativo il giudizio circa l’uso della IA, per gli autori del seminario che hanno raccolto i risultati nel testo “The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation”12 concludono che “sebbene i rischi specifici dell’uso dannoso in tutti i domini digitali, fisici e politici siano una miriade, crediamo che la comprensione dei punti in comune in questo panorama, compreso il ruolo della IA nel consentire attacchi su vasta scala, sia utile per illuminare il futuro del mondo informando meglio sulla prevenzione e mitigazione”.
Nel report USA 2018 “Artificial Intelligence and National Security”13 si fa riferimento allo sviluppo tecnologico del governo cinese, alle parole di Vladimir Putin “chi diventa il leader in questo campo governerà il mondo” e a Elon Musk, fondatore di OpenAI, che ha inviato una lettera firmata da 114 leader internazionali nel settore tecnologico all'ONU (ONU). Nella lettera si avverte che le armi autonome alimentate dall'intelligenza artificiale "permetteranno di combattere i conflitti armati" in una scala più grande che mai, e in tempi più rapidi di quanto gli umani comprendano " per cui bisogna prevenire una corsa agli armamenti e proteggere i civili da potenziali abusi. Temi affrontati più volte, in particolare in “Artificial Intelligence, Military Revolution, and China’s Future Military Power”14 si analizza il notevole salto qualitativo della Cina per diventare una "superpotenza scientifica e tecnologica" in cui la AI rivestirà una parte decisiva. Difatti tra il 2012 e la metà del 2017 gli investitori con sede in Cina hanno finanziato società tecnologiche statunitensi per un totale di 19 miliardi di dollari con particolare attenzione all’IA, robotica, realtà virtuale o aumentata. Cinesi sono tre grandi player globali: Baidu, Alibaba e Tencet (BAT), nel 2017 il 23% delle 2.542 compagnie impegnare nel mondo dell’intelligenza artificiale contro il 42% americane.
Sebbene la promozione dell’uso di prodotti civili in ambito militare sia nata negli USA negli anni ’80, l’integrazione civile-militare cinese elevata a strategia nazionale viene vista con preoccupazione dal governo americano, tant’è che Donald Trump è preoccupato per investitori statunitensi che investono in imprese cinesi di IA (Google). Molti dei principali imprenditori cinesi di intelligenza artificiale si sono laureati nelle migliori università statunitensi. Con il nuovo presidente la competizione nazionale e militare ha subito una accelerazione perché malgrado l’innovazione nei due paesi passi soprattutto dal settore privato, in Cina è lo Stato-Partito ad assicurare la condivisione di risorse militari e civili fra ricerca scientifica, università, imprese e unità dell’industria militare. Uno dei campi su cui maggiormente si concentra la ricerca e l’applicazione di IA in Cina è quello del controllo sociale. Usa i big data per compiere operazioni di polizia predittiva nella provincia dello Xinjang dove vive una minoranza etnica, gli uiguri, che ha un culto religioso musulmano sunnita e dove hanno attecchito movimenti separatisti già repressi dal governo15.
Ma è nel progetto “sistema di credito sociale”, ossia la possibilità di assegnare un voto e un giudizio individuale, che Pechino sta investendo più soldi. Ma se da questo punto di vista è evidente la somiglianza fra occidente e oriente quando si tratta di controllare e punire comunità definite pericolose16, e altrettanto si può dire circa l’utilizzo dell’intelligenza artificiale per sviluppare veicoli aerei, terrestri, di superficie o sottomarini sempre più autonomi, ciò che rappresenta una novità è l’uso del concetto di “singolarità”. Per “singolarità” si intende l’uomo, la cognizione umana, che viene allontanata dal campo di battaglia perché non tiene il passo con la velocità del processo decisionale e il tempo di combattimento. Non più "in the loop" (ruolo diretto) ma "on the loop", supervisore dell’intero processo17. "La guerra partigiana è, anzitutto, una nuova forma di vita". (E. Guevara)
1 Abrupt rise of new machine ecology beyond human response time https://www.nature.com/articles/srep02627
2 Explainable Artificial Intelligence (XAI) https://www.darpa.mil/program/explainable-artificial-intelligence
3 Lifelong Learning Machines (L2M) https://www.darpa.mil/program/lifelong-learning-machines
4 Collection and Monitoring via Planning for Active Situational Scenarios https://www.fbo.gov/index?s=opportunity&mode=form&id=fd037853ae27cf4e5a6f6cbf7bb02a5b&tab=core&_cview=0
5 The Need for Open Source Software in Machine Learning http://is.tuebingen.mpg.de/fileadmin/user_upload/files/publications/JMLR-8-Sonnenburg_4768[0].pdf
6 Program Announcement for Artificial Intelligence Exploration (AIE) https://www.executivegov.com/wp-content/uploads/2018/07/DARPA-PA-18-02.pdf
7 Is a Cambrian Explosion Coming for Robotics? https://pubs.aeaweb.org/doi/pdfplus/10.1257/jep.29.3.51
8 Artificial Intelligence is the New Electricity
https://www.gsb.stanford.edu/insights/andrew-ng-why-ai-new-electricity
9 DOD drops final solicitation for $10B JEDI cloud https://washingtontechnology.com/articles/2018/07/26/dod-jedi-final-bids.aspx
10 letter to Google https://static01.nyt.com/files/2018/technology/googleletter.pdf
11 Open Letter to Professor Sung-Chul Shin, President of KAIST from some leading AI researchers in 30 different countries https://www.cse.unsw.edu.au/~tw/ciair//kaist.html
12 The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation https://img1.wsimg.com/blobby/go/3d82daa4-97fe-4096-9c6b-376b92c619de/downloads/1c6q2kc4v_50335.pdf
13 Artificial Intelligence and National Security https://fas.org/sgp/crs/natsec/R45178.pdf
14 China’s Quantum Future https://www.cnas.org/publications/commentary/chinas-quantum-future
15 La Cina darà un punteggio social ai suoi cittadini dal 2020 https://www.wired.it/internet/web/2017/10/25/cina-punteggio-social-ai-cittadini-2020/?refresh_ce=
16 Can ‘predictive policing’ prevent crime before it happens? http://www.sciencemag.org/news/2016/09/can-predictive-policing-prevent-crime-it-happens
17 SINGULARITY 2030. China’s move to reach AI world-supremacy by 2030
https://singularity2030.ch/chinas-move-to-reach-ai-world-supremacy-by-2030/
Articoli correlati
- Albert, il bollettino quotidiano pacifista
Amnesty alla Russia: "Stop all'indottrinamento nei territori occupati"
Nei territori occupati, i libri di testo ucraini sono stati eliminati dalle scuole e sostituiti con testi di propaganda russa. La lingua ucraina è stata bandita dall’insegnamento, e ai bambini viene ripetuto che “se non vuoi che l’Ucraina ti uccida, dicci tutto ciò che vedi e sai su di essa”.1 novembre 2024 - Redazione PeaceLink - Sullo sfondo emerge il grande business della guerra
Fame, bombe e sfollamenti forzati: queste le armi del governo israeliano contro Gaza, Libano e…
Netanyahu ha bombardato ospedali e scuole, fatto morire di fame bambini, distrutto infrastrutture e alloggi e reso la vita invivibile a Gaza22 ottobre 2024 - Rossana De Simone - Israele sta violando la risoluzione 1701 del Consiglio di Sicurezza ONU votata anche dagli USA
Il ruolo dei Caschi Blu dell'ONU in Libano: storia e attualità
Il governo israeliano "viola la risoluzione ONU", lo dice la missione ONU Unifil. E il governo Usa? Sostiene l'invasione del Libano, dopo aver dato lezioni di diritto internazionale a Putin e al mondo intero.1 ottobre 2024 - Alessandro Marescotti - Occorre una mobilitazione globale per fermare l'escalation
Allarme escalation nucleare: fermiamo la corsa verso il baratro
Putin ha dichiarato che la Russia "prenderà in considerazione" l'uso di armi nucleari in risposta a un attacco aereo massiccio. E' un preoccupante passo verso una nuova fase di escalation. La minaccia nucleare non è più un'ombra remota, ma un pericolo sempre più concreto.25 settembre 2024 - Redazione PeaceLink
Sociale.network