{"id":1605,"date":"2023-04-16T17:50:17","date_gmt":"2023-04-16T15:50:17","guid":{"rendered":"https:\/\/www.mc-data.it\/?p=1605"},"modified":"2023-04-17T08:55:54","modified_gmt":"2023-04-17T06:55:54","slug":"normativa-artificiale","status":"publish","type":"post","link":"https:\/\/www.mc-data.it\/?p=1605","title":{"rendered":"Normativa Artificiale"},"content":{"rendered":"\n<p>Il 30 Marzo 2023 in un comunicato, il Garante della Privacy, organo di controllo europeo in materia di tutela dei Dati personali, blocca &#8220;ChatGPT&#8221; in Italia, per aver raccolto in maniera illecita dati personali e per non aver introdotto di sistemi per la verifica dell\u2019et\u00e0 degli iscritti.<\/p>\n\n\n\n<p><a href=\"https:\/\/www.garanteprivacy.it\/home\/docweb\/-\/docweb-display\/docweb\/9870847\">https:\/\/www.garanteprivacy.it\/home\/docweb\/-\/docweb-display\/docweb\/9870847<\/a><\/p>\n\n\n\n<p>Che cosa sia ChatGPT \u00e8 noto ai pi\u00f9, comunque merita un breve ripasso.<\/p>\n\n\n\n<p>ChatGPT \u00e8&nbsp;un software di IA,<strong>&nbsp;<\/strong>disponibile in varie modalit\u00e0 sul mercato. Principalmente noto come servizio online, gratuito, al pubblico, viene venduto a sviluppatori sotto forma di&nbsp;API&nbsp;(Application Programming Interface), Applicazione che consente a due software di comunicare tra loro. ChatGPT sfrutta il GPT-3, un modello di previsione linguistica addestrato in deep learning su ampissimi dataset, per generare a richiesta testi di diverse tipologie.<\/p>\n\n\n\n<p>L&#8217;evento ha avuto una risonanza ampia e importante: OpenAI, la casa madre di ChatGPT ,oltre a creare divertenti momenti di discussione, raccoglieva i Dati personali degli utenti registrati in maniera illecita, permettendo a chiunque di registrarsi, senza controlli sui limiti d&#8217;et\u00e0 &#8211; e su questo punto mi permetto di far notare che sono decisamente in buona compagnia.<\/p>\n\n\n\n<p>Ma prima di questo &#8220;evento&#8221; un scossa di terremoto molto pi\u00f9 profonda, e forse per questo meno nota, ha incrinato la fiducia verso l&#8217;Intelligenza Artificiale, nei suoi smisurati sviluppi e campi di aplicazione.<\/p>\n\n\n\n<p><strong><em>Il 22 Marzo, in una lettera aperta, oltre 1000 tra i pi\u00f9 eminenti esponenti e ricercatori in materia, chiedono la sospensione di tutte le ricerche di sviluppo di Intelligenza artificiale.<\/em><\/strong><\/p>\n\n\n\n<p>Che i due eventi siano effettivamente collegati \u00e8 tutto da dimostrare, ma sicuramente dimostra come la lente d&#8217;ingrandimento degli organi di controllo abbia messo a fuoco l&#8217;IA evidenziandone lacune e debolezze.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">La Lettera aperta sulla moratoria alla ricerca in campo I.A.<\/h2>\n\n\n\n<p>I sistemi di IA dotati di un\u2019intelligenza competitiva con quella umana possono comportare rischi profondi per la societ\u00e0 e l\u2019umanit\u00e0, come dimostrato da ricerche approfondite [1] e riconosciuto dai migliori laboratori di IA [2].<\/p>\n\n\n\n<p>Come affermato nei <a href=\"https:\/\/futureoflife.org\/open-letter\/ai-principles\/\" target=\"_blank\" rel=\"noreferrer noopener\">Principi di Asilomar per l\u2019intelligenza artificale<\/a>, ampiamente approvati, l\u2019IA avanzata potrebbe <em>rappresentare un cambiamento profondo nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cura e risorse adeguate<\/em>.<\/p>\n\n\n\n<p>&nbsp;Sfortunatamente, questo livello di pianificazione e gestione non sta avvenendo, anche se negli ultimi mesi i laboratori di IA si sono impegnati in una corsa fuori controllo per sviluppare e impiegare menti digitali sempre pi\u00f9 potenti che nessuno &#8211; nemmeno i loro creatori &#8211; \u00e8 in grado di comprendere, prevedere o controllare in modo affidabile.<\/p>\n\n\n\n<p>I sistemi di intelligenza artificiale contemporanei stanno diventando competitivi con gli esseri umani in compiti generali [3] e dobbiamo chiederci se sia il caso di lasciare che le macchine inondino i nostri canali di informazione: Dobbiamo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsit\u00e0? Dovremmo automatizzare tutti i lavori, compresi quelli pi\u00f9 soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci di numero, essere pi\u00f9 intelligenti e sostituirci? Dobbiamo rischiare di perdere il controllo della nostra civilt\u00e0? Queste decisioni non devono essere delegate a leader tecnologici non eletti.<\/p>\n\n\n\n<p>I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo sicuri che i loro effetti saranno positivi e i loro rischi gestibili. Questa fiducia deve essere ben giustificata e aumentare con l\u2019entit\u00e0 degli effetti potenziali di un sistema. La recente dichiarazione di OpenAI sull\u2019intelligenza artificiale generale afferma che \u201ca un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare ad addestrare i sistemi futuri, e per gli sforzi pi\u00f9 avanzati concordare di limitare il tasso di crescita dei calcoli utilizzati per creare nuovi modelli\u201d. Siamo d\u2019accordo. Quel punto \u00e8 ora, lo abbiamo gi\u00e0 raggiunto.<\/p>\n\n\n\n<p>Pertanto, chiediamo a tutti i laboratori di IA di sospendere immediatamente per almeno 6 mesi l\u2019addestramento di sistemi di IA pi\u00f9 potenti del GPT-4. Questa pausa dovrebbe essere pubblica e verificabile. Questa pausa deve essere pubblica e verificabile e deve includere tutti gli attori chiave. Se tale pausa non pu\u00f2 essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria.<\/p>\n\n\n\n<p>I laboratori di IA e gli esperti indipendenti dovrebbero utilizzare questa pausa per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo di IA avanzate, rigorosamente controllati e supervisionati da esperti esterni indipendenti. Questi protocolli dovrebbero garantire che i sistemi che vi aderiscono siano sicuri al di l\u00e0 di ogni ragionevole dubbio.[4]<\/p>\n\n\n\n<p>Ci\u00f2 non significa una pausa nello sviluppo dell\u2019IA in generale, ma solo un passo indietro rispetto alla pericolosa corsa verso modelli black-box sempre pi\u00f9 grandi e imprevedibili con capacit\u00e0 emergenti. La ricerca e lo sviluppo dell\u2019IA dovrebbero concentrarsi sul rendere i potenti sistemi all\u2019avanguardia di oggi pi\u00f9 accurati, sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali.<\/p>\n\n\n\n<p>Parallelamente, gli sviluppatori di IA devono lavorare con i politici per accelerare drasticamente lo sviluppo di solidi sistemi di governance dell\u2019IA. Questi dovrebbero come minimo includere: <\/p>\n\n\n\n<p><strong><em>autorit\u00e0 di regolamentazione nuove e capaci dedicate all\u2019IA; <\/em><\/strong><\/p>\n\n\n\n<p><strong><em>sorveglianza e monitoraggio di sistemi di IA altamente capaci e di grandi bacini di capacit\u00e0 computazionale; <\/em><\/strong><\/p>\n\n\n\n<p><strong><em>sistemi di provenienza e watermarking per aiutare a distinguere i modelli reali da quelli sintetici e per tracciare le fughe di notizie; <\/em><\/strong><\/p>\n\n\n\n<p><strong><em>un robusto ecosistema di auditing e certificazione; <\/em><\/strong><\/p>\n\n\n\n<p><strong><em>responsabilit\u00e0 per i danni causati dall\u2019IA; <\/em><\/strong><\/p>\n\n\n\n<p><strong><em>solidi finanziamenti pubblici per la ricerca tecnica sulla sicurezza dell\u2019IA; <\/em><\/strong><\/p>\n\n\n\n<p><strong><em>istituzioni ben finanziate per affrontare i drammatici sconvolgimenti economici e politici (soprattutto per la democrazia) che l\u2019IA causer\u00e0.<\/em><\/strong><\/p>\n\n\n\n<p>L\u2019umanit\u00e0 pu\u00f2 godere di un futuro fiorente con l\u2019IA. Essendo riusciti a creare potenti sistemi di IA, possiamo ora goderci una \u201cestate dell\u2019IA\u201d in cui raccogliere i frutti, progettare questi sistemi per il chiaro beneficio di tutti e dare alla societ\u00e0 la possibilit\u00e0 di adattarsi. La societ\u00e0 ha messo in pausa altre tecnologie con effetti potenzialmente catastrofici per la societ\u00e0 [5] e possiamo farlo anche in questo caso. Godiamoci una lunga estate dell\u2019IA, non precipitiamoci impreparati in un autunno.<\/p>\n\n\n\n<p>Traduzione realizzata con l\u2019ausilio di DeepL<\/p>\n\n\n\n<p>Note e referenze<\/p>\n\n\n\n<p>[1] Bender, E. M., Gebru, T., McMillan-Major, A., &amp; Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?&#x1f99c;. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).Bostrom, N. (2016). Superintelligence. Oxford University Press.Bucknall, B. S., &amp; Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI\/ACM Conference on AI, Ethics, and Society (pp. 119-129).Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton &amp; Company.Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43(3) (pp. 282-293).Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.Hendrycks, D., &amp; Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.<\/p>\n\n\n\n<p>[2] Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: \u2019A little bit scared of this\u2019. ABC News.Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.<\/p>\n\n\n\n<p>[3] Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.<\/p>\n\n\n\n<p>[4] Ample legal precedent exists \u2013 for example, the widely adopted OECD AI Principles require that AI systems \u201cfunction appropriately and do not pose unreasonable safety risk\u201d.<\/p>\n\n\n\n<p>[5] Examples include human cloning, human germline modification, gain-of-function research, and eugenics.<\/p>\n\n\n\n<p><\/p>\n\n\n\n<p>Fonte Il Sole 24 ore:<\/p>\n\n\n\n<p><a href=\"https:\/\/www.ilsole24ore.com\/art\/sospendere-grandi-esperimenti-intelligenza-artificiale-lettera-aperta-AEFqiMBD?refresh_ce=1\">https:\/\/www.ilsole24ore.com\/art\/sospendere-grandi-esperimenti-intelligenza-artificiale-lettera-aperta-AEFqiMBD?refresh_ce=1<\/a><\/p>\n\n\n\n<p>Versione originale:<\/p>\n\n\n\n<figure class=\"wp-block-embed is-type-wp-embed is-provider-future-of-life-institute wp-block-embed-future-of-life-institute\"><div class=\"wp-block-embed__wrapper\">\n<blockquote class=\"wp-embedded-content\" data-secret=\"8u9QVPVOCL\"><a href=\"https:\/\/futureoflife.org\/open-letter\/pause-giant-ai-experiments\/\">Pause Giant AI Experiments: An Open Letter<\/a><\/blockquote><iframe loading=\"lazy\" class=\"wp-embedded-content\" sandbox=\"allow-scripts\" security=\"restricted\" style=\"position: absolute; visibility: hidden;\" title=\"&#8220;Pause Giant AI Experiments: An Open Letter&#8221; &#8212; Future of Life Institute\" src=\"https:\/\/futureoflife.org\/open-letter\/pause-giant-ai-experiments\/embed\/#?secret=nqVfMvVTqu#?secret=8u9QVPVOCL\" data-secret=\"8u9QVPVOCL\" width=\"500\" height=\"282\" frameborder=\"0\" marginwidth=\"0\" marginheight=\"0\" scrolling=\"no\"><\/iframe>\n<\/div><\/figure>\n\n\n\n<p>Interessanti le firme note:<\/p>\n\n\n\n<p><strong>Elon Musk<\/strong>, CEO di SpaceX, Tesla &amp; Twitter<\/p>\n\n\n\n<p><strong>Steve Wozniak<\/strong>, Co-fondatore, Apple<\/p>\n\n\n\n<p><strong>Andrew Yang<\/strong>, Candidato Democratico alle presidenziali USA del 2020, candidato a Sindaco di NYC nel 2021<\/p>\n\n\n\n<p><strong>Jaan Tallinn<\/strong>, Co-Fondatore of Skype.<\/p>\n\n\n\n<p><strong>Evan Sharp<\/strong>, Co-Founder, Pinterest<\/p>\n\n\n\n<p><strong>Tom Gruber<\/strong>, Siri\/Apple, Humanistic.AI, Co-fondatore, CTO, co-fondatore di 4 compagnie<\/p>\n","protected":false},"excerpt":{"rendered":"<p class=\"qua-blog-post-description\">Il 30 Marzo 2023 in un comunicato, il Garante della Privacy, organo di controllo europeo in materia di tutela dei Dati personali, blocca &#8220;ChatGPT&#8221; in Italia, per aver raccolto in maniera illecita dati personali e per non aver introdotto di sistemi per la verifica dell\u2019et\u00e0 degli iscritti. https:\/\/www.garanteprivacy.it\/home\/docweb\/-\/docweb-display\/docweb\/9870847 Che cosa sia ChatGPT \u00e8 noto ai [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":true,"template":"","format":"standard","meta":{"om_disable_all_campaigns":false,"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"jetpack_post_was_ever_published":false,"_jetpack_newsletter_access":"","_jetpack_dont_email_post_to_subs":false,"_jetpack_newsletter_tier_id":0,"_jetpack_memberships_contains_paywalled_content":false,"_jetpack_memberships_contains_paid_content":false,"footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":true,"jetpack_social_post_already_shared":true,"jetpack_social_options":{"image_generator_settings":{"template":"highway","default_image_id":0,"font":"","enabled":false},"version":2}},"categories":[3],"tags":[35,34,33],"class_list":["post-1605","post","type-post","status-publish","format-standard","hentry","category-news","tag-garante-privacy","tag-gdpr","tag-intelligenza-artificiale"],"jetpack_publicize_connections":[],"jetpack_featured_media_url":"","jetpack_sharing_enabled":true,"jetpack_shortlink":"https:\/\/wp.me\/p9p8lv-pT","jetpack_likes_enabled":true,"_links":{"self":[{"href":"https:\/\/www.mc-data.it\/index.php?rest_route=\/wp\/v2\/posts\/1605","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.mc-data.it\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.mc-data.it\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.mc-data.it\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.mc-data.it\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=1605"}],"version-history":[{"count":7,"href":"https:\/\/www.mc-data.it\/index.php?rest_route=\/wp\/v2\/posts\/1605\/revisions"}],"predecessor-version":[{"id":1624,"href":"https:\/\/www.mc-data.it\/index.php?rest_route=\/wp\/v2\/posts\/1605\/revisions\/1624"}],"wp:attachment":[{"href":"https:\/\/www.mc-data.it\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=1605"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.mc-data.it\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=1605"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.mc-data.it\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=1605"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}