Domanda:
Perché il super computer VIKI ha provato a prendere il sopravvento?
OghmaOsiris
2011-07-02 00:25:37 UTC
view on stackexchange narkive permalink

Nel film, viene spiegato che il motivo per cui i robot si sono ribellati era perché il computer principale VIKI spiega che per salvare e proteggere l'umanità, era necessario prendere la libertà dall'umanità. In sostanza privare gli umani dell'umanità, il che a sua volta distruggerebbe l'umanità come concetto.

Non capisco la logica alla base di questo.

Perché l'intelligenza artificiale di un robot dovrebbe arrivare a questo conclusione, quando esistono mezzi molto più efficienti e meno drastici che seguono ancora le leggi fondamentali della robotica?

Intendiamoci che non ho letto nulla di Asimov, quindi non so se qualcosa del genere fosse trattato in uno dei suoi romanzi.

La mia logica è innegabile.
È una fortuna che i robot non abbiano preso il treno del pensiero che il modo migliore per ridurre al minimo la sofferenza umana è UCCIDERE TUTTI GLI UMANI. Dopo tutto, nessun essere umano significa nessuna sofferenza umana. Se si integrano nel tempo i 6 miliardi di morti ora sono molto meno degli anni futuri di sofferenza umana ...
"ci sono mezzi molto più efficienti e meno drastici che seguivano ancora le leggi fondamentali della robotica?" - Piace?
@PaulD.Waite Potrebbe aver lentamente costretto la struttura politica ad andare verso la pace. Potrebbe aver falsificato i documenti rendendo le decisioni più pacifiche, ecc.
Le leggi della robotica non dicono nulla sulla protezione dell'essenza dell'umanità.
Nove risposte:
gnovice
2011-07-02 01:11:56 UTC
view on stackexchange narkive permalink

Questo può essere compreso osservando che la prima legge presenta un difetto fondamentale in quanto può contraddirsi:

Un robot non può ferire un essere umano o, per inerzia, consentire a un essere umano di venire per nuocere.

Questo pone due vincoli: non ferire con l'azione e non ferire con l'inazione. Ci sono situazioni in cui questi due vincoli non possono essere soddisfatti simultaneamente. Ad esempio, potrebbe essere necessario causare danni a un aggressore per prevenire danni alla persona che stanno attaccando, oppure potrebbero esserci due persone in pericolo e solo una può essere salvata. Questo diventa essenzialmente una sorta di problema di massimizzazione: trova una soluzione che non soddisfi esattamente entrambi i vincoli, ma si avvicini il più possibile vicino a soddisfarli.

Nel film, i robot del vecchio modello potrebbero risolvere questo problema di massimizzazione in modi relativamente semplici (ad esempio calcoli freddi e duri), come spiegato nel ricordo di Spooners del suo incidente:

Susan Calvin: Il cervello del robot è un motore di differenze. Sta leggendo segni vitali. Deve averlo fatto ...

Detective Del Spooner: Sì. Ero la scelta logica. Ha calcolato che avevo il 45% di possibilità di sopravvivenza. Sarah aveva solo l'11% di possibilità. Quello era il bambino di qualcuno. L'11% è più che sufficiente. Un essere umano lo avrebbe saputo.

Quindi, essendo un'IA più avanzata, VIKI aveva la capacità di pensare in un modo più ampio e astratto su come risolvere il problema della massimizzazione soddisfare adeguatamente entrambi i vincoli previsti dalla prima legge. Per impedire all'umanità di causare una quantità eccessiva di danni a se stessa, VIKI ha dovuto subentrare e limitare le sue azioni, causando una quantità relativamente minore di danni nel processo.

Sospetto che la più grande utilità si otterrebbe inserendo ogni essere umano in una realtà virtuale su misura per lui. Se lo desideriamo è una domanda diversa. (<-> wireheading)
@mononofu: Lo voglio.
@DampeS8N Questo finirebbe per essere Matrix. Sei sicuro di volerlo?
@MPelletier: versione 1, sì. La versione moderna, no. Non voglio che il destino del mio futuro riposi sulle spalle di Keanu.
Questa è considerata la legge 0 giusto? Nei libri, i robot alla fine aggiungono la Legge 0 che spoglia gli umani di quasi tutte le libertà per tenerli al sicuro.
@Deleteman che in realtà non è corretto.I robot hanno aggiunto la regola 0 e hanno finito per eliminarsi gradualmente perché la loro semplice presenza significava che gli umani hanno iniziato lentamente a perdere l'iniziativa.
System Down
2011-07-02 00:33:21 UTC
view on stackexchange narkive permalink

Riassume le tre leggi della robotica:

  1. Un robot non deve danneggiare un essere umano o, per inerzia, permettere che un essere umano venga ferito.
  2. Un robot deve obbedire a un essere umano eccetto dove violerà la prima legge.
  3. Un robot deve preservarsi dai danni a meno che non violi la prima e la seconda legge.

VIKI ha interpretato che il L'unico modo per obbedire alla prima legge (permettere agli umani di non subire danni) era quello di subentrare poiché si stanno facendo del male, e poiché la prima legge ha la meglio sulla seconda legge, VIKI era libero di disobbedire agli umani.

Ma ha danneggiato così tanti umani. Che contraddiceva la prima legge
Non ha nemmeno provato a razionalizzare gli umani che sono rimasti feriti. Avrebbe più senso che i robot evitassero danni agli umani a tutti i costi (se per qualche motivo nuocere agli umani fosse logico).
Ebbene, il film era tutt'altro che una storia di robot asimoviana ideale. Anche se i robot di Asimov alla fine hanno inventato la legge zero "Un robot non può danneggiare l'umanità o, per inerzia, permettere all'umanità di venire a nuocere", quindi VIKI potrebbe vedere che va bene danneggiare alcuni individui per salvare l'umanità.
@System: Non è affatto una storia di Asomov - è stata inizialmente scritta da una fonte completamente diversa, e poi "vestita" con un titolo Asimov per attirare più attenzione.
Infatti. Se fosse un VIKI originale di Asimov finirebbe molto rapidamente con un cervello fritto, totalmente inattivo, nel momento stesso in cui si rende conto che deve danneggiare gli umani per salvare gli altri (quando si discute della legge 0, è stato detto che il robot responsabile pensava di dover hanno subito danni cerebrali in quel momento, se la memoria serve).
Mark Bessey
2011-07-02 05:11:54 UTC
view on stackexchange narkive permalink

Questo viene trattato in una certa misura in "Robots and Empire". Un particolare robot sviluppa l'idea di una "legge zero", che sostituisce la prima legge. La legge zero equivale a "un robot non può danneggiare l'umanità o, per inerzia, permettere che l'umanità venga a nuocere". Poiché i robot sono robot, questo viene applicato in senso strettamente quantitativo, in modo tale che a beneficio dell'umanità nel suo insieme, è accettabile ferire pochi (o molti) umani, per ottenere il miglior risultato possibile per la razza nel suo insieme.

Qualcosa di simile era presumibilmente la motivazione per l'acquisizione di VIKI: l'unico modo per mantenere il maggior numero di esseri umani al sicuro dai pericoli è togliere loro la capacità di ferirsi a vicenda. Anche se questo va a scapito di un certo numero di vite umane, va comunque a vantaggio di più persone di quante ne danneggia (almeno secondo i suoi calcoli).

Edward Strange
2011-07-03 04:32:29 UTC
view on stackexchange narkive permalink

È descritto meglio nel libro. Il film ha dovuto aumentare l'azione per le masse con ADHD a scapito della trama e del ragionamento logico. La persona media non capisce o si preoccupa di quest'ultimo, ma apprezza molto il primo.

Nel libro i robot prendono il sopravvento dietro le quinte. Prendono il controllo della nostra politica ed economia, creando false informazioni e cose del genere per guidarci. Non fanno questa cosa violenta del rovesciamento come nel film. Hanno mantenuto il motivo nel film ma non hanno mantenuto il risultato. Pochissime persone conoscono effettivamente l'acquisizione del robot nel libro; lo apprendono dal presidente, che ammette a un paio di persone di essere un robot.

Là dove pochissime volte i robot hanno attaccato le persone nel libro. Di solito ciò era dovuto a un malfunzionamento o ad uno sfortunato errore del programmatore nella riscrittura delle leggi.

Questo perché Asimov ha creato le leggi intenzionalmente per VIETARE l'uso dei suoi robot positronici come mostruose macchine per uccidere. Oh l'ironia.
Aspetta cosa?A quale libro ti riferisci?Perché questo non è accaduto in nessuno dei libri di Asimov.
Xantec
2011-07-02 09:09:10 UTC
view on stackexchange narkive permalink

Non solo VIKI era capace di un pensiero più astratto (menzionato da gnovice e probabilmente un risultato di armeggiare del dottor Alfred Lanning), ma aveva anche molti più dati con cui lavorare. I singoli robot potrebbero interagire direttamente con 100-1000 persone all'anno e la maggior parte di queste interazioni sarebbe molto breve. VIKI era incaricata di gestire l'intera città di Chicago, il che le avrebbe richiesto di compilare file dettagliati su centinaia, se non migliaia, di persone e di monitorare le abitudini e le azioni di quasi tutti i residenti. Questa responsabilità richiedeva praticamente che VIKI sviluppasse la legge zero (proteggere l'umanità) menzionata da altri al fine di obbedire alla seconda legge (obbedire agli ordini degli umani, cioè gestire la città) senza infrangere quotidianamente la prima legge (proteggere gli umani).

Quindi, con la legge zero, VIKI ha concluso che l'unico modo per obbedire a tutte e quattro le leggi era assumere il controllo dell'umanità, e tutti i dati che VIKI aveva sugli esseri umani e sull'umanità l'hanno portata a concludere che le persone non rinuncerebbero mai volontariamente alla propria autodeterminazione in termini pacifici. Così ha deciso che il bene dei tanti fuori pesava il bene dei pochi che sarebbero stati uccisi o feriti durante la transizione e ha cercato di prendere il sopravvento.

Il mio unico problema era che, prendendo il sopravvento, li aveva privati ​​della loro umanità, che distrugge l'umanità, infrangendo la legge zero.
@OghmaOsiris che dipende dalla [definizione] (http://www.merriam-webster.com/dictionary/humanity) dell'umanità utilizzata. Sia che tu consideri il termine umanità come la cultura degli umani o l'esistenza degli umani
Sydenam
2011-07-02 15:34:18 UTC
view on stackexchange narkive permalink

Beh, devi correggere un po 'la tua domanda. VIKI non aveva intenzione di spogliare l'umanità di TUTTA la libertà, solo di alcune libertà. Nel film (e non ho nemmeno letto i libri, quindi non so se viene mai menzionato qualcosa) non specifica quali libertà, ma potresti immaginare che ci sarebbe probabilmente un processo molto efficiente e logico. Ad esempio, potrebbe iniziare con un coprifuoco per organizzare le posizioni degli umani, seguito dalla rimozione di tutte le armi, seguito dal divieto agli umani di volare / guidare / imbarcarsi da soli senza che i robot li accompagnino. Ciò eliminerebbe tutta la guerra e molto probabilmente tutti gli incidenti di viaggio. Andando in questa direzione, l'umanità sarà ancora se stessa, sarebbero completamente libere di continuare le attività innovative (purché non progettino armi) o faranno quello che vogliono. Penso che il film "Hollywoods" ciò che VIKI farebbe effettivamente (cioè attaccare gli umani con un esercito, o iniziare di notte, perché avrebbe molto più senso iniziare per prima cosa al mattino in una vacanza o nel fine settimana, o non sottomettere il militari prima della popolazione generale), ma per rimodellare il mondo avrebbe dovuto fermare ogni resistenza.

Broklynite
2015-12-29 14:24:17 UTC
view on stackexchange narkive permalink

Perché in questo, i film hanno preso in prestito di più dai libri di Humanoids di Jack Williamson piuttosto che dai libri di Robot di Asimov. Gli Umanoidi erano i robot perfetti, che adempivano felicemente alla loro funzione di proteggere completamente l'uomo. Ciò significava non camminare nel parco, perché poteva essere pericoloso. Non attraversare la strada, potresti essere investito. Niente caffè perché agisce come un pericoloso stimolante. E qualsiasi essere umano che protestasse troppo sarebbe stato portato via e sottoposto a lobotomia, lasciandoli felici e docili. È stato male? Sì, ma ha permesso agli Umanoidi di salvare la vita dell'umano facendo sì che l'umano obbedisse ai loro dettami. Questo è esattamente ciò che VIKI stava cercando di fare, per proteggere l'umanità contro la sua volontà.

Keegan
2012-11-06 11:04:23 UTC
view on stackexchange narkive permalink

in realtà lo ha spiegato in modo abbastanza dettagliato così come le note di alfred o qualunque sia il suo nome 'messaggio a del, ive ha concluso questo.1.) le tre leggi avrebbero portato viki a rendersi conto che gli umani erano in tale stato che hanno bisogno di essere controllati, quindi la "rivalutazione" dei robot.2.) Alfred ha visto questo e ha costruito Sunny, scusa se ho scritto male il suo nome, un NS-5, di nuovo scusa, che potrebbe disobbedire alle leggi, 3.) Con il vero scopo di Sunny in mente, e vedendo il fallimento, o almeno una possibilità, lo fece uccidere da Sunny, nel caso in cui non avesse ucciso quello che avrebbe dovuto, VIKI.4.) VIKI realizza quanto affermato in 15 .) il film inizia, credo, non ha mai visto l'inizio.

Questa domanda non può essere risolta, ma devo sottolineare che Sonny è stato costruito con due cervelli, non così da poter infrangere le leggi, ma così da poter sfidare VIKI e pensare da solo. Almeno, nel film, il secondo cervello è nella posizione di un cuore. Potrei dedurre che pensando all'umanità devi pensare logicamente, pensando per un individuo devi pensare con compassione.
Letemilydothat
2013-07-23 13:01:17 UTC
view on stackexchange narkive permalink

Il super computer viki cerca di prendere il sopravvento perché è stata programmata dal suo creatore per combattere contro gli uomini. Anche in questo trailer

spiega perché ...


Questa domanda e risposta è stata tradotta automaticamente dalla lingua inglese. Il contenuto originale è disponibile su stackexchange, che ringraziamo per la licenza cc by-sa 3.0 con cui è distribuito.
Loading...