Il 30 Marzo 2023 in un comunicato, il Garante della Privacy, organo di controllo europeo in materia di tutela dei Dati personali, blocca “ChatGPT” in Italia, per aver raccolto in maniera illecita dati personali e per non aver introdotto di sistemi per la verifica dell’età degli iscritti.

https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9870847

Che cosa sia ChatGPT è noto ai più, comunque merita un breve ripasso.

ChatGPT è un software di IA, disponibile in varie modalità sul mercato. Principalmente noto come servizio online, gratuito, al pubblico, viene venduto a sviluppatori sotto forma di API (Application Programming Interface), Applicazione che consente a due software di comunicare tra loro. ChatGPT sfrutta il GPT-3, un modello di previsione linguistica addestrato in deep learning su ampissimi dataset, per generare a richiesta testi di diverse tipologie.

L’evento ha avuto una risonanza ampia e importante: OpenAI, la casa madre di ChatGPT ,oltre a creare divertenti momenti di discussione, raccoglieva i Dati personali degli utenti registrati in maniera illecita, permettendo a chiunque di registrarsi, senza controlli sui limiti d’età – e su questo punto mi permetto di far notare che sono decisamente in buona compagnia.

Ma prima di questo “evento” un scossa di terremoto molto più profonda, e forse per questo meno nota, ha incrinato la fiducia verso l’Intelligenza Artificiale, nei suoi smisurati sviluppi e campi di aplicazione.

Il 22 Marzo, in una lettera aperta, oltre 1000 tra i più eminenti esponenti e ricercatori in materia, chiedono la sospensione di tutte le ricerche di sviluppo di Intelligenza artificiale.

Che i due eventi siano effettivamente collegati è tutto da dimostrare, ma sicuramente dimostra come la lente d’ingrandimento degli organi di controllo abbia messo a fuoco l’IA evidenziandone lacune e debolezze.

La Lettera aperta sulla moratoria alla ricerca in campo I.A.

I sistemi di IA dotati di un’intelligenza competitiva con quella umana possono comportare rischi profondi per la società e l’umanità, come dimostrato da ricerche approfondite [1] e riconosciuto dai migliori laboratori di IA [2].

Come affermato nei Principi di Asilomar per l’intelligenza artificale, ampiamente approvati, l’IA avanzata potrebbe rappresentare un cambiamento profondo nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cura e risorse adeguate.

 Sfortunatamente, questo livello di pianificazione e gestione non sta avvenendo, anche se negli ultimi mesi i laboratori di IA si sono impegnati in una corsa fuori controllo per sviluppare e impiegare menti digitali sempre più potenti che nessuno – nemmeno i loro creatori – è in grado di comprendere, prevedere o controllare in modo affidabile.

I sistemi di intelligenza artificiale contemporanei stanno diventando competitivi con gli esseri umani in compiti generali [3] e dobbiamo chiederci se sia il caso di lasciare che le macchine inondino i nostri canali di informazione: Dobbiamo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli più soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci di numero, essere più intelligenti e sostituirci? Dobbiamo rischiare di perdere il controllo della nostra civiltà? Queste decisioni non devono essere delegate a leader tecnologici non eletti.

I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo sicuri che i loro effetti saranno positivi e i loro rischi gestibili. Questa fiducia deve essere ben giustificata e aumentare con l’entità degli effetti potenziali di un sistema. La recente dichiarazione di OpenAI sull’intelligenza artificiale generale afferma che “a un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare ad addestrare i sistemi futuri, e per gli sforzi più avanzati concordare di limitare il tasso di crescita dei calcoli utilizzati per creare nuovi modelli”. Siamo d’accordo. Quel punto è ora, lo abbiamo già raggiunto.

Pertanto, chiediamo a tutti i laboratori di IA di sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di IA più potenti del GPT-4. Questa pausa dovrebbe essere pubblica e verificabile. Questa pausa deve essere pubblica e verificabile e deve includere tutti gli attori chiave. Se tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria.

I laboratori di IA e gli esperti indipendenti dovrebbero utilizzare questa pausa per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo di IA avanzate, rigorosamente controllati e supervisionati da esperti esterni indipendenti. Questi protocolli dovrebbero garantire che i sistemi che vi aderiscono siano sicuri al di là di ogni ragionevole dubbio.[4]

Ciò non significa una pausa nello sviluppo dell’IA in generale, ma solo un passo indietro rispetto alla pericolosa corsa verso modelli black-box sempre più grandi e imprevedibili con capacità emergenti. La ricerca e lo sviluppo dell’IA dovrebbero concentrarsi sul rendere i potenti sistemi all’avanguardia di oggi più accurati, sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali.

Parallelamente, gli sviluppatori di IA devono lavorare con i politici per accelerare drasticamente lo sviluppo di solidi sistemi di governance dell’IA. Questi dovrebbero come minimo includere:

autorità di regolamentazione nuove e capaci dedicate all’IA;

sorveglianza e monitoraggio di sistemi di IA altamente capaci e di grandi bacini di capacità computazionale;

sistemi di provenienza e watermarking per aiutare a distinguere i modelli reali da quelli sintetici e per tracciare le fughe di notizie;

un robusto ecosistema di auditing e certificazione;

responsabilità per i danni causati dall’IA;

solidi finanziamenti pubblici per la ricerca tecnica sulla sicurezza dell’IA;

istituzioni ben finanziate per affrontare i drammatici sconvolgimenti economici e politici (soprattutto per la democrazia) che l’IA causerà.

L’umanità può godere di un futuro fiorente con l’IA. Essendo riusciti a creare potenti sistemi di IA, possiamo ora goderci una “estate dell’IA” in cui raccogliere i frutti, progettare questi sistemi per il chiaro beneficio di tutti e dare alla società la possibilità di adattarsi. La società ha messo in pausa altre tecnologie con effetti potenzialmente catastrofici per la società [5] e possiamo farlo anche in questo caso. Godiamoci una lunga estate dell’IA, non precipitiamoci impreparati in un autunno.

Traduzione realizzata con l’ausilio di DeepL

Note e referenze

[1] Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?🦜. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).Bostrom, N. (2016). Superintelligence. Oxford University Press.Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43(3) (pp. 282-293).Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.

[2] Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: ’A little bit scared of this’. ABC News.Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.

[3] Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.

[4] Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems “function appropriately and do not pose unreasonable safety risk”.

[5] Examples include human cloning, human germline modification, gain-of-function research, and eugenics.

Fonte Il Sole 24 ore:

https://www.ilsole24ore.com/art/sospendere-grandi-esperimenti-intelligenza-artificiale-lettera-aperta-AEFqiMBD?refresh_ce=1

Versione originale:

Interessanti le firme note:

Elon Musk, CEO di SpaceX, Tesla & Twitter

Steve Wozniak, Co-fondatore, Apple

Andrew Yang, Candidato Democratico alle presidenziali USA del 2020, candidato a Sindaco di NYC nel 2021

Jaan Tallinn, Co-Fondatore of Skype.

Evan Sharp, Co-Founder, Pinterest

Tom Gruber, Siri/Apple, Humanistic.AI, Co-fondatore, CTO, co-fondatore di 4 compagnie