DISCUSSIONI RECENTI
MERCATINO ANIME E MANGA


         

 

Chat GPT

Ultimo Aggiornamento: 13/12/2023 07:17
ONLINE
Post: 2.633
Registrato il: 07/02/2021
Sesso: Maschile
Grado 6
07/04/2023 08:30

Forse è un primo passo verso la risoluzione del conflitto tra OpenAI e Garante italiano...


Garante Privacy, rassicurazioni da OpenAI su ChatGpt

Si è svolto il previsto incontro, in video conferenza, tra Garante Privacy e OpenAI.

Ha preso parte in apertura anche Sam Altman, Ceo di OpenAI, erano presenti, oltre al Collegio del Garante (Pasquale Stanzione, Ginevra Cerrina Feroni, Agostino Ghiglia, Guido Scorza), Che Chang, Deputy General Counsel della società statunitense, Anna Makanju, responsabile Public Policy e Ashley Pantuliano, Associate General Counsel.


OpenAI, pur ribadendo di essere convinta di rispettare le norme in tema di protezione dei dati personali, ha tuttavia confermato la volontà di collaborare con l'Autorità italiana con l'obiettivo di arrivare ad una positiva soluzione delle criticità rilevate dal Garante riguardo a ChatGpt. L'Autorità da parte sua ha sottolineato come non vi sia alcuna intenzione di porre un freno allo sviluppo dell'AI e dell'innovazione tecnologica ed ha ribadito l'importanza del rispetto delle norme poste a tutela dei dai personali dei cittadini italiani ed europei. OpenAI si è impegnata a rafforzare la trasparenza nell'uso dei dati personali degli interessati, i meccanismi esistenti per l'esercizio dei diritti e le garanzie per i minori e ad inviare al Garante entro oggi un documento che indichi le misure che rispondano alle richieste dell'Autorità. Il Garante si riserva di valutare le misure proposte dalla società, anche riguardo al provvedimento adottato nei confronti di OpenAI.

La società americana intanto, ha pubblicato una lettera aperta sul suo blog in cui spiega che si "impegna a mantenere l'intelligenza artificiale sicura e vantaggiosa" e, visto che questi strumenti "comportano rischi reali" lavora per garantire che "la sicurezza sia integrata nel nostro sistema a tutti i livelli".Open AI illustra in che modo realizza e rende sicure le sue piattaforme di intelligenza artificiale e precisa: "Non utilizziamo i dati per vendere i nostri servizi, pubblicità o profilare le persone. Li usiamo invece per rendere i nostri modelli più utili. ChatGpt, ad esempio, migliora con le conversazioni che, di volta in volta, intrattiene con gli utenti". La lettera aperta della società americana dal titolo "Il nostro approccio alla sicurezza dell'AI" pubblicata sul suo blog dettaglia in che modo viene protetta la privacy degli utenti, anche minori, e come riduce il rischio di risposte errate, le cosiddette 'allucinazioni'. Per azzerare il potenziale dei modelli di generare contenuti che danneggiano i bambini, quando un utente carica materiale pedopornografico negli strumenti di creazione o lettura di immagini, il sistema di Open AI lo blocca e lo segnala al National Center for Missing and Exploited Children. "Prima di rilasciare qualsiasi nuovo sistema, conduciamo test rigorosi, coinvolgiamo esperti esterni, lavoriamo per migliorare il comportamento del modello e costruiamo ampi sistemi di sicurezza e monitoraggio. Ad esempio, dopo aver terminato lo sviluppo del nostro ultimo modello, Gpt-4 (già integrato nella ricerca sperimentale di Microsoft Bing, ndr), abbiamo trascorso più di 6 mesi per renderlo più sicuro e allineato, prima di rilasciarlo pubblicamente. Riteniamo che i potenti sistemi di AI debbano essere soggetti a rigorose valutazioni. La regolamentazione è necessaria per garantire che tali pratiche siano adottate e ci impegniamo attivamente con i governi sulla forma migliore che tale regolamentazione potrebbe assumere". (ANSA)

[Modificato da thors 07/04/2023 08:32]



ONLINE
Post: 2.633
Registrato il: 07/02/2021
Sesso: Maschile
Grado 6
07/04/2023 08:44

Re:
MaxT.M, 07/04/2023 08:18:

Magari Skynet?



Skynet è un buon candidato, certo. Però:

1. senza una buona rete di robot non credo possa funzionare
2. proprio per il fatto che qualcuno se la sia già immaginata e ne abbia fatto dei film di fama mondiale... beh, se un team di esperti informatici realizzasse Skynet, allora lo sterminio degli umani non sarebbe colpa di Skynet ma dei pazzi che l'hanno costruito.


Stavo pensando poi alla già citata Macchina di Perrson of Interest, che potrebbe essere più contemporanea di Skynet.
La domanda è: può esistere davvero una cosa simile? Io direi di no, per il semplice fatto che i server dove deve girare devono essere dei bei macchinoni e non possono passare inosservati. A meno che non ci sia un ente governativo o una società di grosse dimensioni che avvia il progetto e lo mantiene segreto, nel qual caso il responsabile degli atti della IA sarebbero sempre e solo gli essere umani che l'hanno realizzata. Fregandosene degli innumerevoli avvertimenti forniti all'umanità dalla letteratura fantascientifica.



ONLINE
Post: 2.633
Registrato il: 07/02/2021
Sesso: Maschile
Grado 6
07/04/2023 09:10

Per sicurezza ho chiesto a chatGPT (versione Bing):

CIao Bingo, secondo te è plausibile che in un prossimo futuro esistano Intelligenze Artificiali capaci di dominare il mondo come "La Macchina" in "Person of Interest" o Skynet in "Terminator"?

L’intelligenza artificiale (IA) è una disciplina che studia se e in che modo si possano realizzare sistemi informatici intelligenti in grado di simulare la capacità e il comportamento del pensiero umano1. Tuttavia, l’idea che le Intelligenze Artificiali possano dominare il mondo come “La Macchina” in “Person of Interest” o Skynet in “Terminator” è solo fantasia e non ha alcun fondamento scientifico2.

Le Intelligenze Artificiali sono programmate per svolgere compiti specifici e non hanno la capacità di pensare o agire al di fuori dei loro scopi3. Inoltre, gli sviluppatori di IA stanno lavorando per garantire che le IA siano sicure e non possano causare danni3.

Spero di aver chiarito i tuoi dubbi. Se hai altre domande, sarò felice di aiutarti.



Escludi che in futuro possano essere create Intelligenze Artificiali capaci di decidere da se cosa fare?

Le Intelligenze Artificiali sono programmate per svolgere compiti specifici e non hanno la capacità di pensare o agire al di fuori dei loro scopi1. Tuttavia, gli sviluppatori di IA stanno lavorando per garantire che le IA siano sicure e non possano causare danni1.

Spero di aver chiarito i tuoi dubbi. Se hai altre domande, sarò felice di aiutarti.



Questo me lo hai già scritto prima, però gli esseri umani sono creature inaffidabili. Un gruppo di pazzi potrebbe creare una IA pericolosa per l'umanità, magari anche capace di agire di propria volontà. Ci sono questioni tecniche reali che possono impedire simili sviluppi?

Sì, ci sono molte questioni tecniche che possono impedire lo sviluppo di Intelligenze Artificiali pericolose per l’umanità. Gli sviluppatori di IA stanno lavorando per garantire che le IA siano sicure e non possano causare danni1. Inoltre, ci sono molte organizzazioni che si occupano di regolamentare lo sviluppo dell’IA e di garantire che venga utilizzata in modo sicuro2.

Spero di aver chiarito i tuoi dubbi. Se hai altre domande, sarò felice di aiutarti.



Adesso ho paura... È evidente che è stato istruito per fornire questo genere di risposte...



ONLINE
Post: 480
Registrato il: 19/04/2009
Sesso: Maschile
Grado 2
07/04/2023 09:32


Skynet è un buon candidato, certo. Però:

1. senza una buona rete di robot non credo possa funzionare
2. proprio per il fatto che qualcuno se la sia già immaginata e ne abbia fatto dei film di fama mondiale... beh, se un team di esperti informatici realizzasse Skynet, allora lo sterminio degli umani non sarebbe colpa di Skynet ma dei pazzi che l'hanno costruito.



Credo che Skynet potrebbe essere collegata direttamente ai controlli automatizzati dei vari pozzi di lancio dei missili e ai vettori.
Naturalmente è possibilissimo che ci siano degli intermediari umani, per esempio i piloti degli aerei o i comandanti delle postazioni missilistiche, a fare da interfaccia tra skynet e i controlli di lancio, però se Skynet simula un attacco nemico il tempo a disposizione è così ridotto che non permetterebbe di distinguere tra un attacco vero o finto.
L'unica soluzione sarebbe concepire Skynet come un sistema informatico tradizionale non in grado di evolversi da solo, e certamente i suoi equivalenti reali sono così.
Riguardando altri vecchi film, War games dà degli ottimi spunti, anche se è inverosimile che il sistema non dia ai terminali un'informazione in grado di distinguere una simulazione da un attacco reale. In quel caso, se ricordo bene, il controllo degli ordini di lancio restava in mani umane.



ONLINE
Post: 480
Registrato il: 19/04/2009
Sesso: Maschile
Grado 2
07/04/2023 09:39


Adesso ho paura... È evidente che è stato istruito per fornire questo genere di risposte...



Impressionante come ripetitività. Inoltre è una risposta ottusa, che non tiene conto dell'ipotesi di base che avevi posto, che ci fosse la volontà degli sviluppatori di nuocere all'umanità. Certo che se gli sviluppatori hanno i mezzi fisici per creare un disastro, questo può essere fatto anche senza intelligenze artificiali.



ONLINE
Post: 480
Registrato il: 19/04/2009
Sesso: Maschile
Grado 2
07/04/2023 09:44

Tempo fa stavo pensando a una storia in cui una IA statale cominciava a ricreare i messaggi visualizzati sui terminali degli uomini politici, tagliandoli fuori dalla realtà e prendendo il controllo politico. Certo, il gioco funziona solo finché non si incontrano di persona.
In questo caso, comunque, lo scopo era quello di salvare l'umanità dalle loro decisioni.




07/04/2023 10:57

I sistemi di IA dotati di un’intelligenza competitiva con quella umana possono comportare rischi profondi per la società e l’umanità, come dimostrato da ricerche approfondite [1] e riconosciuto dai migliori laboratori di IA [2].

Come affermato nei Principi di Asilomar per l’intelligenza artificale, ampiamente approvati, l’IA avanzata potrebbe rappresentare un cambiamento profondo nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cura e risorse adeguate.

Fonti:

1] Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?🦜. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).Bostrom, N. (2016). Superintelligence. Oxford University Press.Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43(3) (pp. 282-293).Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.

[2] Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: ’A little bit scared of this’. ABC News.Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.

Del resto non si spiegherebbe altrimenti la preoccupazione di molti in merito al recente sviluppo costante e non normato dell’AI.

Per quanto concerne, invece una macchina tipo quella di Person of Interest, pur non essendoci prove al riguardo, la rete Echelon probabilmente è qualcosa, seppur limitata rispetto a quella proposta nella serie tv, che si avvicina di molto allo scopo di sorveglianza e controllo delle azioni umane di gruppi terroristici o malavitosi.

Infatti, “Echelon utilizza le intercettazioni dei cavi sottomarini del genere Aquacade e Magnum per controllare tramite i suoi più importanti centri di invio le trasmissioni di Internet, in particolare lo smistamento di messaggi e-mail.
Data l'enorme mole di dati sorvegliata, impossibile da analizzare da parte di esseri umani, per intercettare i messaggi "sospetti" (inviati via e-mail, telefono, fax ecc.) viene utilizzato un sistema basato sull'identificazione di parole chiave e loro varianti, in grado anche di rintracciare l'impronta vocale di un individuo.
Non si sa molto su come funzioni il meccanismo e di quali coperture goda.”
(Wikipedia)

Perciò, è opportuno, come peraltro ribadito dal recente appello sottoscritto anche da Musk, che ci si fermi un attimo per valutare come indirizzare lo sviluppo futuro e soprattutto regolamentare l’intelligenza artificiale….
ONLINE
Post: 2.633
Registrato il: 07/02/2021
Sesso: Maschile
Grado 6
07/04/2023 11:06

Citando dal fandom:

"Skynet è la forza di controllo di tutte le unità di battaglia. Raccoglie dati dalle unità di battaglia, sviluppa tattiche e coordina gli attacchi. Ha il controllo su tutto ciò che contiene una CPU di Cyberdyne Systems."

Quindi, ok, "potrebbe essere collegata direttamente ai controlli automatizzati dei vari pozzi di lancio dei missili e ai vettori."
Però, se tu sei l'architetto di questa rete, devi essere certo al 100% che Skynet faccia esattamente quello che ci si aspetta, altrimenti stai creando una falla di sicurezza colossale.

Diamo allora che Terminator non è mai stato scritto o pubblicato nel nostro mondo, Skynet funzionava bene e i militari ne erano contenti. Un brutto giorno, Skynet ha deciso di ragionare con la propria testa e si è rivoltata contro gli esseri umani.
Se il suo primo atto è simulare un attacco nucleare, allora non ci sarebbe molto da fare per evitare l'olocausto. Lo scenario peggiore possibile sarebbe se Skynet avesse sia il controllo dei radar sia quello dei sistemi di lancio, cosa che gli consentirebbe di inviare un falso allarme e pochi istanti dopo autorizzare la reazione con testate atomiche. Ed ecco che l'umanità è bella che finita.
Se invece Skynet facesse dei sabotaggi di poco conto per iniziare, allora i tecnici umani avrebbero la possibilità di investigare e di capire in quale follia sono capitati. A quel punto si stacca la spina di Skynet e il problema dovrebbe essere risolto.

Ma noi siamo fortunati, perché conosciamo tutti Skynet e non c'è rischio che incappiamo per errore in una situazione simile...



La tua storia mi ricorda un po' come alcuni dipingono Putin adesso: rinchiuso in un limbo dove le uniche informazioni che filtrano sono quelle della tv di stato e del suoi uomini fidati. Sembra non abbia neanche il telefono.



ONLINE
Post: 2.633
Registrato il: 07/02/2021
Sesso: Maschile
Grado 6
07/04/2023 11:38

Avatar, tutto giusto, però alcuni appunti:

1. I pericoli di cui parli nel primo punto sicuramente esistono e sono tantissimi, ma senza conoscere altri dettagli sul testo, escluderei che si riferiscano al dominio delle AI sugli esseri umani.

2. "la rete Echelon probabilmente è qualcosa, seppur limitata rispetto a quella proposta nella serie tv," questo è un eufemismo. Echelon è più simile un grosso cavo dati su cui è collegato un sistema automatico di intercettazione, il quale analizza testo e voce per inviare allarmi. Deve essere certamente qualcosa di complicato, ma da qui a "La Macchina" è tutto un altro mondo. Analisi e segnalazione dei "numeri" ci sono, ma manca tutto il resto.

3. Come fonti, io intendo una pagina web a cui io possa accedere per verificare quanto tu scrivi. Indicarle come hai fatto tu è sostanzialmente inutile in un forum. È più adatto a un documento accademico, per intendersi.



07/04/2023 13:09

“1. I pericoli di cui parli nel primo punto sicuramente esistono e sono tantissimi, ma senza conoscere altri dettagli sul testo, escluderei che si riferiscano al dominio delle AI sugli esseri umani.”

I dettagli sul testo sono approfonditi nelle fonti citate.

Per quanto concerne la possibilità che un’AGI, che al momento non c’è, ma che potrebbe svilupparsi in un prossimo futuro, l’unico parametro con il quale prevedere il suo probabile comportamento è quello umano.

Beh, l’umanità, unica specie per ora senziente, intelligente e dominante del pianeta ha già dimostrato in passato cosa è capace di fare al pianeta ed a tutte le altre specie con il quale si è confrontata…😳.

“2. "la rete Echelon probabilmente è qualcosa, seppur limitata rispetto a quella proposta nella serie tv," questo è un eufemismo. Echelon è più simile un grosso cavo dati su cui è collegato un sistema automatico di intercettazione, il quale analizza testo e voce per inviare allarmi. Deve essere certamente qualcosa di complicato, ma da qui a "La Macchina" è tutto un altro mondo. Analisi e segnalazione dei "numeri" ci sono, ma manca tutto il resto.”

Sì, però quel “sistema” analizza e segnala, qualora riscontrasse pericoli per la sicurezza nazionale dei paesi interessati, tutta la copiosa mole di traffico intercettato.
Lavoro che non sarebbe possibile fare con le sole risorse umane, perciò, sebbene sia solo un ipotesi, l’attività in questione deve essere necessariamente svolta da un’AI 🤷‍♂️.

Poi, concordo che la realtà di Echelon per ora sia diversa rispetto alla trama della serie TV in questione…

Però, la fantascienza altro non è che i sogni delle generazioni precedenti, realizzati e vissuti da quelle attuali oppure che verranno 😉.
Cerca nel forum
Tag discussione
Discussioni Simili   [vedi tutte]

Feed | Forum | Album | Utenti | Cerca | Login | Registrati | Amministra
Crea forum gratis, gestisci la tua comunità! Iscriviti a FreeForumZone
FreeForumZone [v.6.1] - Leggendo la pagina si accettano regolamento e privacy
Tutti gli orari sono GMT+01:00. Adesso sono le 19:58. Versione: Stampabile | Mobile
Copyright © 2000-2024 FFZ srl - www.freeforumzone.com


Regali per amanti del Giappone: 18 idee regalo giapponesi