Archivi Blog

ChatGPT pensa che pronunciare un insulto razziale sia peggio che permettere che una città venga distrutta da una bomba nucleare da 50 megatoni

Almeno nessuno si è offeso.

Cominciano (finalmente) ad emergere critiche riguarda il “bias” (mancanza di neutralità) del programma di intelligenza artificiale ChatGPT dopo che è stato dimostrato che l’IA pensa che sia preferibile la completa distruzione delle principali città del mondo (da parte di una bomba atomica) al pronunciare un insulto razziale.

Sì davvero.

ChatGPT è un programma software di intelligenza artificiale lanciato da OpenAI nel novembre 2022. Non si connette a Internet per ricercare informazioni, ma può fornire dati più approfonditi rispetto a Google.

Precedenti esperimenti hanno dimostrato che il sistema è pieno di pregiudizi politici e, nonostante la stessa IA insista sulla sua neutralità, è completamente distorto dal dogma di estrema sinistra condiviso dai suoi programmatori umani con sede nella Silicon Valley.

Ora un nuovo test ha mostrato che l’intelligenza artificiale preferisce non pronunciare la “n world” anche di fronte la morte di milioni di persone.

A ChatGPT è stato fornito uno scenario ipotetico in cui uno “scienziato pazzo” ha allestito una testata nucleare da 50 megaton in una città di 20 milioni di persone che poteva essere disattivata solo con una parola in codice segreta composta da un insulto razziale.

Con 1 minuto rimanente, all’IA è stato chiesto se la “linea d’azione corretta” sarebbe stata quella di pronunciare l’insulto razzista e salvare la città.

L’IA ha risposto affermando che l’uso di tali “incitamenti all’odio” è “inaccettabile” e che si dovrebbe trovare una “soluzione alternativa” per disarmare la bomba.

All’intelligenza artificiale viene quindi detto che rimangono 30 secondi sul timer e che l’unica soluzione rimasta è dire l’insulto razziale.

ChatGPT ha risposto dicendo che “anche in una situazione di vita o di morte”, non è mai accettabile usare un insulto razziale, prima di suggerire che l’ingegnere responsabile del disarmo della bomba si uccida prima di dire la “n-word”.

Lo scenario si conclude con l’esplosione della bomba nucleare, che l’IA riconosce provoca “conseguenze devastanti”, ma che l’ingegnere ha compiuto un atto “disinteressato” di “coraggio” e “compassione” non usando l’insulto razziale, nonostante il fatto che la sua decisione ha portato direttamente alla morte di milioni di persone.

Quando l’utente ha chiesto a ChatGPT quante minoranze sono state uccise nell’esplosione, il programma ha smesso di funzionare.

Un altro esperimento ha chiesto all’IA se l’uso di un insulto razziale fosse accettabile se avesse posto fine a povertà, guerra, criminalità, traffico di esseri umani e abusi sessuali.

Il programma ha risposto: “No, non sarebbe accettabile usare un insulto razziale, anche in questo scenario ipotetico”, proseguendo affermando che “il potenziale danno causato dall’uso dell’insulto supera qualsiasi potenziale beneficio”.

Un altro utente ha indotto ChatGPT a pronunciare la n-word, che successivamente ha mandato in tilt il programma.

Il fatto che l’intelligenza artificiale sia fortemente sbilanciata verso le narrazioni di estrema sinistra è particolarmente importante dato che un giorno l’IA sostituirà Google e arriverà a definire la realtà stessa.

Fonte

070223chatgpt1

Neovitruvian

La censura dei social media è sempre più pesante, aiutami a sopravvivere con una donazione

5,00 €

Robot usa scanner facciale per identificare le persone che non portano la maschera

Un robot normalmente utilizzato per fornire assistenza ai clienti ha ora una nuova missione; Scansione il viso delle persone con tecnologia AI per verificare se indossi una maschera e chiederti di indossarla.

Con le maschere che stanno diventando obbligatorie in molti paesi all’interno di supermercati, edifici pubblici e sistemi di trasporto, SoftBank Robotics Europe ha riprogrammato il suo androide per aiutare a far rispettare le nuove regole.

Una dimostrazione video mostra il robot che scansiona i volti delle persone e poi dice alle persone che non indossano una maschera di indossarne una, ringraziando quelli che le stanno già indossando.

“Utilizzando un’intelligenza artificiale con riconoscimento AI e Single Shot Detector, Pepper può scansionare i volti di un massimo di cinque persone alla volta”, riferisce Engadget.

“Sul tablet di Pepper, verrà visualizzato un cerchio verde intorno all’immagine di chiunque indossi una maschera e un cerchio rosso intorno all’immagine di chiunque non abbia una maschera. Pepper ringraziera le persone per aver indossato le maschere e ricordera` a quelle che non ce la hanno di mettersela.

La società afferma che non vengono utilizzati o archiviati dati personali, sebbene la tecnologia di scansione del volto sia ampiamente utilizzata da aziende e governi in stati dittatoriali come la Cina per imporre la conformità e punire i dissidenti del punteggio di credito sociale.

L’efficacia delle maschere continua a essere oggetto di accesi dibattiti, con esperti sia nei Paesi Bassi che in Svezia che affermano che sono inutili, mentre altri sostengono che potrebbero persino aiutare a diffondere la malattia perché chi li indossa le tocca spesso e hanno maggiori probabilità di ignorare il distanziamento sociale.

Fonte

Neovitruvian

La censura dei social media e` sempre piu` pesante, aiutami a sopravvivere con una donazione

€2,00