Domanda:
Il robot che ha salvato la vita di Spooner in I, Robot ha infranto la seconda legge della robotica?
Magikarp Master
2017-07-12 17:05:33 UTC
view on stackexchange narkive permalink

C'è una scena in particolare in I, Robot che solleva una questione interessante. Il detective Spooner racconta la storia di come ha perso il braccio. Ha avuto un incidente d'auto e si è ritrovato sott'acqua con una ragazza che stava per annegare. Will è stato salvato da un robot che stava passando. Il motivo addotto sul perché il robot avesse salvato Will e non la ragazza era che, statisticamente parlando, le possibilità di sopravvivenza di Spooner erano più alte di quelle della ragazza. Ciò ha senso, poiché un robot prenderebbe decisioni basate sulla probabilità statistica. Ma c'è un problema: nel flashback, sentiamo chiaramente il personaggio di Will gridare: "Salva la ragazza!" al robot. Era un ordine diretto da un essere umano a un robot.

All'inizio pensavo che questa non fosse una violazione della seconda legge perché se il robot avesse obbedito al suo ordine, sarebbe morto. La seconda legge della robotica non può prevalere sulla prima legge. Ma il problema con questo è che, se la situazione del tipo di scelta di Sophie conta come infrangere la prima legge della robotica, un robot di emergenza non sarebbe mai in grado di eseguire il triage (come ha fatto chiaramente il robot che ha salvato Spooner). Se scegliere di salvare un essere umano conta come danneggiare un altro umano, un robot non sarebbe in grado di operare efficacemente in un'emergenza come questa.

Tutto ciò porta alla mia domanda:
questo robot infrange la seconda legge della robotica o c'è qualche sfumata interpretazione delle leggi che potrebbe spiegare il suo comportamento?

Nota che sebbene la trama del film * I, Robot * non sia in alcun modo basata sulle storie originali di Asimov raccolte con lo stesso nome, quelle storie spesso affrontano questioni molto simili a quella qui, spesso incentrate sull'interpretazione dei TreLeggi e loro interazioni.Una specifica somiglianza è con la trama di ["Runaround"] (https://en.wikipedia.org/wiki/Runaround_ (story)), la seconda storia di quella raccolta.
Ebbene, anche gli umani fanno calcoli simili.Danno solo molto più peso alla probabilità di "non posso vivere con me stesso se la ragazza muore" :) Nella tua interpretazione della 2a (e 1a) legge, i robot non potrebbero mai fare altro che sciogliersi sul posto -c'è sempre * qualcuno * che muore quando fa qualcos'altro, no?Per quanto riguarda la versione di Asimov, tieni presente che le leggi in inglese sono solo traduzioni semplificate: non coprono nemmeno una piccola frazione delle leggi effettive codificate nei robot stessi.La giurisprudenza linguistica sulla versione inglese della legge è irrilevante :)
Per espandere il commento di @DanielRoseman, nei libri questa situazione non sarebbe stata risolta come era nel film.Il film ritrae il pensiero del robot come freddo e calcolatore, che salva Will per massimizzare le possibilità di salvare qualcuno.I robot di Asimov non erano in grado di eseguire tali calcoli.Trovarsi di fronte a questo dilemma, spesso anche in maniera ipotetica, basterebbe a friggere il cervello di un robot.Ad esempio, in ["Fuga!"] (Https://en.wikipedia.org/wiki/Escape!), Il robot deve essere istruito attentamente pensando a un problema in cui il danno agli esseri umani è la soluzione "giusta".
@Luaan Nei libri, gli esseri umani eseguono tali calcoli.I robot non possono.Non sono affidabili per eseguire tali calcoli e sono letteralmente progettati in modo che questi problemi li distruggano anche solo per pensarci.
Questo problema è simile al [problema del carrello] (https://en.wikipedia.org/wiki/Trolley_problem).Non c'è modo di salvare tutti, non importa cosa.
@KRyan Nei romanzi, i robot si sono sviluppati per pensare al di fuori della dualità ferito / non ferito e in realtà scelgono il risultato che è leggermente migliore.Vedi _Robots of Dawn_.
Uno dei problemi più fondamentali con le tre leggi è che il concetto di "danno" è soggettivo e, come tale, quasi impossibile da codificare.
I commenti non sono per discussioni estese;questa conversazione è stata [spostata in chat] (http://chat.stackexchange.com/rooms/62134/discussion-on-question-by-magikarp-master-did-the-robot-that-saved-spooners-lif).
Nota che il film (di cui tratta questa domanda) contiene le tre leggi.Non c'è bisogno di mettere in discussione i romanzi perché il film è abbastanza chiaro da solo.
Collegamenti su decisioni ponderate che immagino sarebbero una piccola parte di alcuni algoritmi più complessi per la robotica AI.http://www.cs.toronto.edu/~hojjat/384f06/Lectures/Lecture21.pdf http://www.aihorizon.com/essays/generalai/decision_tree_learning.htm Una goccia di questo tipo di intelligenza artificiale nel contesto odierno sarebbeessere produttori di veicoli e società di software (Tesla, Uber, Google, Apple, GE, Ford, Mercedes Benz, ecc.) che cercano di superare l'ostacolo della sicurezza dei veicoli autonomi.La domanda è: salvo il brillante giovane passeggero del dottorato di ricerca, o il bambino nel mezzo dell'autostrada?
Dieci risposte:
#1
+74
Darren
2017-07-12 17:15:35 UTC
view on stackexchange narkive permalink

La Seconda Legge afferma

Un robot deve obbedire agli ordini impartitigli dagli esseri umani tranne quando tali ordini sarebbero in conflitto con la Prima Legge.

Quindi sta dicendo che rifiutandosi di salvare la ragazza come ordinato dal detective Spooner, il robot ha infranto quella legge? L'unico modo in cui non può aver infranto la seconda legge è se il corollario entra in gioco e sarebbe in conflitto con la prima legge.

La prima legge dice

A il robot non può ferire un essere umano o, attraverso l'inazione, permettere a un essere umano di subire danni.

Ovviamente, il robot non ha ferito direttamente nessuno, quindi è fuori dai giochi. Il robot non ha permesso alla ragazza di farsi del male inazione poiché il robot sta agendo aiutando Spooner (cioè non sta solo lì a guardare). Tuttavia, se, come dici tu, era statisticamente più probabile che Spooner sarebbe sopravvissuto con un po 'di aiuto, allora obbedire a Spooner e aiutare la ragazza potrebbe essere interpretato come lasciare che Spooner venga danneggiato dall'inazione.

Quindi il secondo La Legge non è infranta poiché è governata dalla Prima Legge. La Prima Legge non è stata infranta poiché il robot ha fatto del suo meglio per salvare un essere umano.

Capisco quello che stai cercando di dire, ma penso che la distinzione non sia sufficiente per affrontare questo problema.Il fatto che il robot stia salvando Will non cambia il fatto che non sia riuscito a salvare la ragazza.La domanda ora diventa "questo conta come inazione?"a cui direi "sì".Se un robot impegnato in un compito non riesce a salvare un essere umano che sta per subire danni, il fatto che il robot non sia tecnicamente "inattivo" è irrilevante.Quindi, supponendo che un robot possa agire in queste situazioni scelte da Sophie senza violare la prima legge, come può ignorare la seconda legge nella stessa situazione?
@MagikarpMaster _il robot sta salvando Will non cambia il fatto che non sia riuscito a salvare la ragazza.La domanda ora diventa "questo conta come inazione?"a cui direi "sì" "_ In base a questa definizione, qualsiasi robot che non salva tutti tutto il tempo infrange la Prima Legge. Quindi stai dicendo che ** ogni ** robot ha infranto la Prima Legge perché la ragazza è morta? È ridicolo. Un singolo robot può fare solo ciò che un singolo robot può fare. Solo perché gli dici di sollevare una nave da carico da solo e non può, non significa che infrange la Seconda Legge, ** fintanto che ilil robot cerca di sollevarlo **.
Come spiegato nel film, uno dei due sarebbe morto nel tempo impiegato dal robot per salvare l'altro;quindi, il robot ha determinato quale avesse le migliori possibilità di salvataggio di successo e ha stabilito che il personaggio WS era il "vincitore".Non potrebbe salvare entrambi, ma non potrebbe agire in un modo che consentirebbe a entrambi (molto probabilmente) di morire.
@ZeissIkon: È interessante vedere che Will Smith si aspettava intrinsecamente che la Prima Legge avesse dei pregiudizi sul valore di una vita umana (l'età, in questo caso).Il robot che lo salvò considerava la vita di Will uguale a quella della ragazza;che è ciò che la maggior parte degli umani attuali (che Will cerca di essere, visto che è "vecchia scuola" nel contesto del film) sosterrebbe come un ideale più nobile (sebbene siamo ancora di parte riguardo ai bambini, sosteniamo anche l '** uguaglianza ** della vita umana)
Fai un'ottima osservazione Flater, e sarei d'accordo con te se questa fosse una situazione fisicamente impossibile.Un robot può seguire le leggi solo nella misura in cui è fisicamente in grado di farlo.Le leggi si applicano solo alla capacità di agire del robot.Trovando due umani e trovandosi di fronte alla scelta di salvarne uno e permettere all'altro di subire danni, posso accettare che prenderà la sua decisione in base alle statistiche.Ma se ha ricevuto un ordine diretto da un umano di salvare l'altro umano, obbedire a quell'umano non violerebbe la prima legge.
@MagikarpMaster: _Se un robot che è impegnato in un compito non riesce a salvare un umano che sta per subire danni, il fatto che il robot non sia tecnicamente "inattivo" è irrilevante ._ Se il robot stava cucinando per una vecchia signora e ha ignorato l'annegamentobambino, sono completamente d'accordo sul fatto che tu possa considerare questa ostinata inazione.Tuttavia, devi riconoscere che il robot stava già salvando un essere umano.Ciò significa che entrambe le azioni sono equivalenti e una non sostituisce l'altra.Il robot ha valutato le possibilità di sopravvivenza perché ** doveva scegliere tra due azioni ugualmente praticabili **.
@MagikarpMaster: _Ma se ricevesse un ordine diretto da un umano di salvare l'altro umano, obbedire a quell'umano non violerebbe la prima legge._ In realtà, lo farebbe.Il robot che ascolta quel comando condannerebbe Will a morire, cosa che il robot non può consentire a causa della sua programmazione.Ascoltare un comando è ** secondo ** per salvare una vita.Pertanto, il comando per salvare la ragazza (per il merito di essere un ** comando **) verrebbe scartato, poiché è in corso un'attività con priorità più alta.
@MagikarpMaster, _Ma se ricevesse un ordine diretto da un umano di salvare l'altro umano, obbedire a quell'umano non violerebbe la prima legge._ Ma lo farebbe.Se sia io che un amico stessimo annegando, ma in virtù del fatto di essere un campione del mondo di apneista, un robot sapeva che avrei potuto resistere molto più a lungo, eppure obbediva comunque alle istruzioni del mio amico di salvarmi prima anche sapendo che il mio amico sarebbe annegato se fosse cosìil caso, il robot violerebbe la prima legge.
@Flater, abbiamo pubblicato entrambi lo stesso punto contemporaneamente nella misura in cui ho pensato per un momento di aver pubblicato accidentalmente due volte :)
Mi piace questa risposta, perché mostra un'interpretazione "laica" e, alla fine, il libro e il film non sono stati scritti con un pubblico previsto di programmatori di computer.
Cerchiamo di [continuare questa discussione in chat] (http://chat.stackexchange.com/rooms/62076/discussion-between-magikarp-master-and-flater).
Questa risposta sarebbe migliorata osservando che nel lavoro di Asimov, questo dilemma avrebbe distrutto il robot.La scelta tra una vita umana e l'altra è una fonte frequente di distruzione dei robot nei libri.Non sarebbe stato nemmeno in grado di pensare ipoteticamente ai relativi meriti di salvare Will e salvare la ragazza.Questa scena è una rottura enorme tra il modo in cui funzionavano i robot nel film e il modo in cui funzionavano i robot nel libro.
@Flater: bene, se assumiamo * ogni * robot di essere colpevole di non aver salvato la ragazza, potremmo anche concludere che ogni robot dovrebbe essere sempre impegnato a cercare di salvare tutti gli esseri umani del mondo dal pericolo, forse formando una sorta di corpo di pace per finiretutte le guerre e simili ... oh aspetta, questa è la vera trama del film ...
@KRyan Non necessariamente;i robot più avanzati in "Io, Robot" e nei successivi libri sui robot erano molto più sofisticati nella gestione dei conflitti nelle Tre Leggi.
@prosfilaes Lo so, ma i robot nel film sono stati annunciati come piuttosto nuovi, una delle prime generazioni di robotica consumer.E se ricordo bene, è stato solo molto più tardi che un robot poteva sopportare di essere personalmente responsabile dell'incapacità di salvare una vita umana.
@Holger: La trama non riguardava il salvataggio di ** tutti ** gli esseri umani sul pianeta.Come puoi vedere nel film, è un'acquisizione piuttosto aggressiva, molte persone vengono danneggiate.La trama ruota più specificamente attorno a Vicky che ha interpretato "prevenire danni agli umani" (= salvare ogni essere umano, non importa cosa) come "prevenire danni all '** umanità **" (= alcuni umani potrebbero morire se questo assicura un futuro migliore per l'umanità).Fa la differenza tra la salvaguardia del libero arbitrio innato di ogni essere umano e l'innata servitù degli umani alla loro razza (= il punto di vista della formica, che favorisce la colonia sull'individuo).
@Flater: bene, ho pensato che questo fosse diventato chiaro quando ho scritto "formare una sorta di corpo di pace per porre fine a tutte le guerre", in quanto ciò non ha mai salvato tutti gli umani né ha posto fine a tutte le guerre, che è esattamente ciò che Vicky ha acquisito grazie alla sua interpretazione del primola legge era tutto.Sicuramente non ha anche salvato tutti gli umani, ma è stato richiesto di soddisfare la prima legge secondo l'interpretazione di Vicky, avendo tutti i robot sotto il controllo di Vicky che pattugliavano costantemente per "salvare" gli umani.
Penso che questo sia un dettaglio di implementazione.Le leggi sono state implementate in questo robot in modo tale che non può ordinargli di lasciarlo morire, e sta eseguendo il primo ordine misurando le possibilità di sopravvivenza tra le due persone.Potrebbe essere stato implementato in modo diverso?Certo, avrebbe potuto essere implementato prima per salvare i bambini.Ma non lo era.Allo stesso modo, il modo in cui Vicky è stata implementata, ha visto che secondo la prima legge, "nessuna inazione", doveva agire per evitare che gli umani si facessero del male.
@KRyan: il film comprime solo un po 'la scala temporale.Invoca anche la "legge zero", che in realtà non fu presa in considerazione fino a molti secoli dopo rispetto alle storie nella raccolta (almeno secondo [questa cronologia delle storie dei robot] (http://www.sikander.org/foundation.php)).
La tua enfasi su _inaction_ mi fa chiedere se il robot che sta solo _lasciando_ non sia anche una _action_, il che significa effettivamente che non violano il n. 1 ...
@Zommuter Il punto non è che stesse semplicemente facendo una vecchia azione, ma che stava già intraprendendo * un'azione obbligata dalla prima legge *."[Non devi] permettere a un essere umano di nuocere attraverso l'inazione" significa che qualsiasi azione che * potresti * intraprendere per prevenire il danno, * devi * intraprendere.Non intraprendere quell'azione significa "permettere a un essere umano di subire danni per inerzia", indipendentemente dal fatto che tu faccia qualcos'altro con il tempo o semplicemente stia inattivo.
@Jules Sì, invoca la "legge zero" ma in un modo molto perverso e sbagliato.Se Giskard vedesse cosa hanno fatto con la sua legge ... povero Giskard!
Ragazzi, per favore, smettetela di discuterne ... Le leggi non possono programmare robot.Sono gli umani che applicano le leggi ai robot.Quindi discutere qui come le leggi devono essere interpretate non ha senso, dal momento che l'unica domanda importante sarebbe "Come era / era l'implementatore che interpretava la legge" (come @JFA ha già sottolineato) e che solo può essere risolto dal canone.Quindi la discussione che stai avendo non ha senso.
Penso che in molti modi metta in evidenza la disumanità dei robot.Un essere umano potrebbe essere flessibile, come l'amico del detective.Tuttavia, mostra come un assoluto apparentemente perfetto e ben intenzionato possa avere ripercussioni diffuse ed è in realtà un cattivo presupposto.Asimov ha catturato il problema con ipotesi ingegneristiche in modo abbastanza succinto in questo film.
#2
+44
Devsman
2017-07-13 00:16:28 UTC
view on stackexchange narkive permalink

Il film sembra funzionare sulla meccanica anacronistica di Asimov

Quello che avremmo qui è probabilmente un conflitto tra prima legge e prima legge. Poiché il robot non può salvare entrambi gli esseri umani, uno dovrebbe morire.

Io, l'era dei robot:

C'è sicuramente un precedente per un Io, Robot era un robot che permetteva consapevolmente agli umani di venire a nuocere, nel racconto "Little Lost Robot", ma questo era nella circostanza che l'umano sarebbe venuto a danneggiare indipendentemente dal l'azione del robot, quindi i robot ritengono che non sia attraverso la loro inerzia che gli umani vengono a nuocere.

Tuttavia, sospetto che invece un robot Asimov interpreterà la situazione nel film come un primo- conflitto tra legge e prima legge, dal momento che entrambi gli umani potrebbero essere salvati a seconda della decisione del robot. In altre parole, il robot avrebbe potuto salvare il bambino, ma non l'ha fatto, il che sarebbe stato una prima violazione della legge. Guardando entrambe le vittime allo stesso modo, il robot scoprirà che si tratta di un conflitto tra prima legge e prima legge.

Il racconto "Bugiardo" esplora cosa succede quando un robot si trova di fronte a uno scenario di prima legge contro prima legge:

A causa di un difetto di produzione, viene creato un robot, RB-34 (noto anche come Herbie) che possiede abilità telepatiche . Mentre i robotisti della U.S. Robots and Mechanical Men indagano su come ciò sia avvenuto, il robot dice loro cosa pensano gli altri. Ma la Prima Legge si applica ancora a questo robot, quindi mente deliberatamente, quando necessario, per evitare di ferire i loro sentimenti e per rendere le persone felici, soprattutto in termini di romanticismo.

Tuttavia, mentendo, le fa male Comunque. Quando viene confrontato con questo fatto da Susan Calvin (a cui ha falsamente affermato che il suo collega era infatuato di lei - una bugia particolarmente dolorosa), il robot sperimenta un conflitto logico insolubile e diventa catatonico.

In breve, un robot dell'era I, Robot nella scrittura di Asimov non sarebbe stato in grado di continuare a funzionare dopo questo scenario e avrebbe dovuto essere scartato completamente. È probabile che non sarebbe nemmeno in grado di funzionare dopo essere stato inizialmente affrontato con lo scenario, distruggendosi così prima di essere in grado di salvare uno dei due umani.

La seconda legge è irrilevante, perché prima legge contro prima la legge si traduce in una situazione di stallo insormontabile. La prima legge è la "carta vincente" per così dire, e non è data una priorità, per timore che la seconda o la terza competano, come vediamo in Runaround:

Nel 2015 , Powell, Donovan e Robot SPD-13 (noto anche come "Speedy") vengono inviati a Mercury per riavviare le operazioni in una stazione mineraria abbandonata dieci anni prima.

Scoprono che le banche di fotocellule che forniscono supporto vitale alla base sono a corto di selenio e presto falliranno. La pozza di selenio più vicina è a diciassette miglia di distanza, e poiché Speedy può resistere alle alte temperature di Mercury, Donovan lo manda a prenderla. Powell e Donovan si preoccupano quando si rendono conto che Speedy non è tornato dopo cinque ore. Usano un robot più primitivo per trovare Speedy e cercano di analizzare cosa gli è successo.

Quando alla fine trovano Speedy, scoprono che sta correndo in un enorme cerchio attorno a una pozza di selenio. Inoltre, notano che "l'andatura di Speedy [include] un peculiare barcollamento rotolante, un evidente barcollamento da lato a lato". Quando viene chiesto a Speedy di tornare con il selenio, inizia a parlare in modo strano ("Hot dog, giochiamo. Tu prendi me e io ti prendo; nessun amore può tagliare il nostro coltello in due" e citando Gilbert e Sullivan). Speedy continua a mostrare sintomi che, se fosse umano, verrebbero interpretati come ubriachezza.

Powell alla fine si rende conto che la fonte di selenio contiene un pericolo imprevisto per il robot. In circostanze normali, Speedy osservava la Seconda Legge ("un robot deve obbedire agli ordini"), ma, poiché Speedy era così costoso da produrre e "non era una cosa da distruggere con leggerezza", la Terza Legge ("un robot deve proteggere il suo la propria esistenza ") era stata rafforzata" in modo che la sua allergia al pericolo è insolitamente alta ". Poiché l'ordine per recuperare il selenio è stato formulato casualmente senza un'enfasi particolare, Speedy non può decidere se obbedire (Seconda Legge) o proteggersi dal pericolo (Terza Legge rafforzata). Oscilla quindi tra le posizioni: più lontano dal selenio, in cui l'ordine "supera" il bisogno di autoconservazione, e più vicino al selenio, in cui la coazione della terza legge è maggiore e lo spinge indietro. Le leggi in conflitto causano quello che è fondamentalmente un ciclo di feedback che lo confonde al punto che inizia ad agire ubriaco.

I tentativi di ordinare a Speedy di tornare (Seconda Legge) falliscono, poiché il cervello positronico in conflitto non può accettare nuovi ordini . I tentativi di forzare Speedy alla base con acido ossalico, che può distruggerlo (terza legge), fallisce, semplicemente induce Speedy a cambiare rotta finché non trova un nuovo equilibrio evitare pericolo / ordine di seguire.

Of Naturalmente, l'unica cosa che vince sia la Seconda che la Terza Legge è la Prima Legge della Robotica ("un robot potrebbe non ... permettere a un essere umano di venire a nuocere"). Pertanto, Powell decide di rischiare la vita uscendo al caldo, sperando che la Prima Legge costringa Speedy a superare la sua dissonanza cognitiva e salvargli la vita. Il piano alla fine funziona e il team è in grado di riparare le banche di fotocellule.

Era dei romanzi di robot:

Qualche migliaio anni dopo l'era I, Robot , il dilemma tra prima legge e prima legge è stato sostanzialmente risolto.

In The Robots of Dawn, un robot umanoide subisce una situazione di stallo e viene distrutto, ed Elijah Bailey ha il compito di scoprirne il motivo. Suggerisce al dottor Fastolfe, uno dei più grandi robotisti dell'epoca nonché proprietario e creatore del robot, che un dilemma tra prima legge e prima legge potrebbe essere responsabile, citando la storia di Susan Calvin e del robot psichico. Tuttavia, il dottor Fastolfe spiega che questo è essenzialmente impossibile nell'età moderna perché anche alle prime invocazioni della legge viene data una priorità e priorità uguali vengono selezionate in modo casuale; che lui stesso è probabilmente l'unica persona in vita che può orchestrarlo, e dovrebbe essere in una buona giornata.

Vediamo casi diretti di robot che gestiscono la priorità nei conflitti di prima legge nei romanzi, come in The Naked Sun, quando un altro robot di forma umana costringe Bailey a sedersi in modo che possa chiudere la parte superiore di un trasportatore per proteggerlo dalla sua agorafobia.

Lo svantaggio è che è possibile, sebbene richieda circostanze estreme, che più ricorsi di seconda o terza legge prevalgano su un appello alla prima legge, poiché vediamo di nuovo in The Robots of Dawn che Bailey nota che un gruppo di robot è disposto a trascurare le sue ferite quando insiste sul fatto che non sono gravi e li istruisce casualmente a svolgere i propri affari. Sa che questo comando non può superare l'appello alla prima legge, e quindi ritiene che ai robot siano state date anche istruzioni molto rigide. I due comandi e la sua stessa minimizzazione della gravità della sua situazione, ragiona, sollevano la priorità della seconda legge rispetto a quella della prima legge.

Si dice che il robot in questione nel film abbia deciso che un essere umano aveva maggiori possibilità di sopravvivenza rispetto all'altro e abbia utilizzato queste informazioni per determinare quale essere umano salvare. Questo non sarebbe stato un fattore nell'era I, Robot , ma è un fatto della robotica di base nell'era dei romanzi sui robot. Tuttavia, sembrerebbe che il comando di Spooner di salvare la ragazza non abbia invece una priorità sufficiente per superare la differenza di priorità tra il suo primo appello legale e quello del bambino.

Buona risposta, grazie per aver portato qui i romanzi di _Robot_.
Vale la pena ricordare che il robot in "Little Lost Robot" aveva una versione modificata e indebolita della prima legge: non poteva uccidere nessun essere umano ma poteva lasciar morire un umano per la sua inazione.
Sono d'accordo.Era la prima legge contro la prima legge.Secondo me, il comando di Spooner per salvare la ragazza è stato trattato come un tentativo di suicidio da parte del robot (che era, anche se eroico) e non puoi ordinare a un robot di permetterti di suicidarti.È in conflitto con la prima legge.
Vorrei che Asimov fosse meno meccanico riguardo a questo insieme di regole che generano queste trame più e più volte.In un mondo reale diventerebbe evidente che queste semplici regole da sole creano situazioni avverse come queste e devono essere modificate.Quindi tali aggiunte sorgerebbero naturalmente: se la regola 1 si applica a più persone nella stessa situazione, i genitori hanno il diritto di sacrificarsi chiedendo esplicitamente al robot.Ma sarebbe utile anche una semplice regola di priorità che i bambini hanno.È una regola semplice, formulata in termini di macchina semplice, ma farebbe sì che i robot si comportino in modo molto più caloroso.
@SJuan76 Ma questo non era l'unico robot a comportarsi in questo modo.Gli altri 63 si sono comportati tutti esattamente nello stesso modo.
@stevie che era possibile.In "The Robots of Dawn" si afferma che ai compagni di Bailey (Daneel e Giskard) è stato ordinato di dare più valore alla vita di Bailey rispetto a quella di chiunque altro;non avrebbero ucciso nessuno solo perché avessero ordinato loro di farlo, ma in una situazione di "vita di Bailey contro qualcun altro" ci si aspettava che decidessero sempre in favore di Bailey, e anche che agissero più velocemente.
Solo a 1 robot è stato permesso di far morire un essere umano per inerzia;che era fastidioso.Gli altri 63 erano convinti da quel robot che non avrebbero dovuto agire * in una situazione in cui il robot sarebbe stato distrutto ma l'umano sarebbe morto comunque *, ragionando che se il robot fosse stato distrutto, allora non solo questo umano sarebbe morto ma qualcun altropotrebbe morire in futuro a causa dell'assenza del robot.
Infatti il robot "smarrito" è stato ritrovato perché ha cercato di imitare quello che pensava fosse il comportamento dei robot normali, andando a difendere l'umano quando lo scenario non prevedeva la distruzione del robot.
* "Sa che da solo questo non è un comando sufficiente, ma spiega perché ai robot sono state impartite istruzioni molto rigide che il suo appello di seconda legge, combinato con la sua vocale minimizzazione della priorità della sua situazione di prima legge, ha permesso di prenderepriorità. "* Non riesco a capire questa frase.Penso che manchi una o due parole.
In realtà, la domanda riguarda il film.
@Wildcard Ho apportato una modifica.Spero sia più chiaro ora.
Sicuramente pre-Zero Law Robot, che si occupa di un conflitto della Prima Legge e intraprende l'azione di minore resistenza salvando l'umano con la maggior parte delle probabilità di successo.Qualunque cosa dica l'umano è irrilevante di fronte all'imperativo della Prima Legge.La mia ipotesi è sempre stata che il povero Robot "è morto" fuori dallo schermo dopo aver detto a Spooner perché ha lasciato morire la ragazzina, poiché l'unica soluzione accettabile era salvarli entrambi.
#3
+15
Gnemlock
2017-07-12 17:49:06 UTC
view on stackexchange narkive permalink

Esaminerò questa domanda da un punto di vista logico del mondo reale.

Il robot non infrange la seconda legge; ma tecnicamente, fa il secondo. Detto questo, le regole sarebbero solo una spiegazione condensata di una logica e di un codice informatico molto più intricati.

Per citare le leggi della robotica di Isaac Asimov, sottolineo la mia:

Regola 1:
Un robot non può ferire un essere umano o, per inerzia , consentire a un essere umano di subire danni.
Regola 2:
Un robot deve obbedire agli ordini impartitigli dagli esseri umani tranne nei casi in cui tali ordini siano in conflitto con la Prima Legge .
Regola 3:
Un robot deve proteggere la propria esistenza fintanto che tale protezione non è in conflitto con la prima o la seconda legge.
Irrilevante, ma fornita a scopo di completamento.

Nella situazione data, il robot doveva agire per salvare Will o il bambino. Il robot, essendo in grado di calcolare le probabilità con un tasso di previsione quasi perfetto, è in grado di stabilire che non può agire in tempo sufficiente per salvare sia Will che il bambino ; e le probabilità dicono che Will ha maggiori possibilità di sopravvivere. In tal caso, è logico scegliere Will. Questo è un punto chiave della trama; i robot scappano dalla logica pura, un fatto che li differenzia notevolmente dagli esseri umani.

Quando il robot non riesce a anche salvare il bambino, è causare danni per inerzia . Tuttavia, ancora una volta, il robot sa che è impossibile salvare sia Will che il bambino. Sceglie l'opzione migliore, al fine di aderire al meglio alle sue regole. È qui che entra in gioco una maggiore comprensione dei computer e delle regole stesse.

Cosa accadrebbe effettivamente, considerando la regola esplicita

Le regole non sono un fatto assoluto. Non sono lì per dire "i robot non danneggeranno mai un essere umano e salveranno sempre la situazione, se presenti". Lo sappiamo da come si svolge il film. Le regole sono semplicemente le regole usate per governare le azioni dei robot, al contrario. Come programmatore, questo è qualcosa che mi è palesemente ovvio; ma sono fiducioso che non sia così per altri che non hanno familiarità con quanto sia strettamente aderente qualsiasi sistema informatico.

Il punto è che la regola non indica qualcosa al riguardo "non conta" perché il robot "sta già salvando qualcuno". In quanto tale, solo considerando questa regola esplicita (come interpreterebbe qualsiasi computer o robot, almeno), non è ammessa una situazione in cui il robot può salvare solo una delle due persone in pericolo. Nell'informatica reale, considerando solo la regola esplicita , un tale evento probabilmente causerebbe un ciclo infinito. Il robot si sarebbe fermato dov'era e avrebbe continuato a elaborare il catch-22 per sempre; o almeno, fino a quando la sua logica non lo ha cacciato dal processo di pensiero. A questo punto, il robot scaricherà la sua memoria dell'evento corrente e andrà avanti. In teoria.

Cosa succederebbe probabilmente, in versi

In versi, le regole sono molto più complicate; almeno, interna al robot. Probabilmente ci sarebbero molti casi speciali, durante l'elaborazione delle regole fondamentali, per determinare come agire in tali situazioni. Di conseguenza, il robot è ancora in grado di agire e ottiene il risultato più logico. Salva solo Will, ma fa salva qualcuno .

È molto più comprensibile che le regole vengano semplificate in tre situazioni generiche di casi comuni; sarebbe molto meno credibile che le persone si fidassero così facilmente dei robot se la regola fosse "Un robot non può ferire un essere umano o, per inerzia, permettere a un essere umano di subire danni; a meno che così facendo, ci siano maggiori possibilità di impedire a un altro essere umano di subire danni ". Ci sono solo molti modi per interpretarlo.


Quindi, per quanto riguarda le regole esplicite, il robot non infrange la seconda regola; disobbedire all'azione di Will non va contro "impedire a un umano di venire a nuocere per inerzia", ​​perché disobbedendo a Will, salva Will. Tuttavia, non infrange la regola del "tramite l'inazione, consenti a un essere umano di subire danni".

Per quanto riguarda il modo in cui il robot elaborerebbe queste regole, non sarebbe affatto infrangere le regole. Ci sarebbe una serie molto più complessa di logiche "if .." e "else ..", in cui la logica del robot permetterebbe di andare contro queste regole di base in situazioni in cui la logica impone che a prescindere dall'opzione , un essere umano subirebbe comunque del male.

Questo è ulteriormente stabilito, verso la fine del film;

I robot sono in grado di stabilire efficacemente la legge marziale e, così facendo, danneggiare diversi umani; si sono sviluppati abbastanza da stabilire che danneggiando alcuni esseri umani imprigionando efficacemente il resto della popolazione, prevengono molti più danni attraverso tutte le varie azioni che ci piacciono per arrivare al rischio e, in alcuni casi, alle nostre vite .

Ottima risposta Gnemlock.Se posso scegliere il tuo cervello su questo problema, poiché penso che mi aiuterà a comprendere ulteriormente questo concetto, la tua interpretazione delle 3 leggi consentirebbe a un robot di uccidere un attentatore suicida in una strada affollata per prevenire danni su vasta scala?
@MagikarpMaster, Direi di sì, ma potrebbe esserci un grande dibattito al riguardo.Sarebbe arrivato a * quando * il robot poteva determinare che l'attentatore stava effettivamente agendo, e altrimenti non poteva essere impedito.Sarebbe anche basato sullo sviluppo del robot, in termini di sviluppo dei robot se I-Robot prendono, tra come sono all'inizio del film e come sono alla fine.Si potrebbe anche ipotizzare che le "possibilità di detonazione" richieste per tale azione aumenterebbero alla pari con l'impatto stimato (cioè dovrebbe essere più sicuro se colpisse solo metà delle persone).
Il commento spoiler alla fine sembra riflettere la Legge Zeroth, che i robot hanno sviluppato nel tempo.Non sono sicuro se i cineasti lo stessero usando esplicitamente o se fosse inteso più come flessibilità nella risposta.
Non sono sicuro che un robot come descritto da Asimov (con cervello positronico e così via) rimarrebbe bloccato in un ciclo logico come descrivi.Un computer stupido potrebbe farlo, ma i robot hanno un certo livello di consapevolezza sia di sé che della situazione e potrebbero discutere da soli sui punti che hai sollevato, come accade nel film in cui il robot agisce in quello che sembra essere il miglior modo possibile.Sono abbastanza sicuro che questa debba essere una situazione esplorata da Asimov in uno dei libri di _Robots_, anche se al momento non riesco a pensare a un esempio specifico.
Sta calcolando la speculazione delle probabilità?La speculazione implica congetture e lavorare con informazioni imperfette, mentre il calcolo delle probabilità è più finito.In altre parole, la speculazione è soggettiva, mentre il calcolo delle probabilità è oggettivo.
@MagikarpMaster: A meno che il robot non conoscesse sia Will che il trucco biologico della ragazza;deve aver funzionato sulla base delle statistiche per le possibilità di sopravvivenza umane medie (anche se esistono dati sull'età, non sono ancora dati ** personali ** su Will e la ragazza).Puoi sostenere che le statistiche sono una buona indicazione, ma ** non ci sono prove certe ** che dimostrino che sia Will che la ragazza erano statisticamente "normali" a questo riguardo (ad esempio, forse Will ha polmoni molto cattivi per un adulto della sua età?).Quando si considera il livello di dettaglio che un computer mette nelle sue valutazioni, usare le statistiche equivale a speculare.
_ "Detto questo, le regole sarebbero solo una spiegazione condensata di una logica e di un codice informatico molto più intricati." _ Le regole sono deliberatamente ampie e semplici, quindi no, non credo.
@Wayne Il bit spoilerato è un riferimento alla legge zero come intesa dal film.È, sfortunatamente, una terribile interpretazione della legge zero.Tuttavia, seguendo la logica del film, la legge zero non si applica alla scena in questione come accadde anni prima.
@LightnessRacesinOrbit, Ti assicuro con la massima certezza, le tre regole sono troppo poche per continuare a fornire la logica esplicita richiesta per l'IA, a meno che tu non supponga che ci sia anche un sacco di magia spaziale.
@Gnemlock: Il codice per implementare le regole consisterebbe ovviamente in più bit di informazioni ma, ancora una volta, la semantica è volutamente molto semplice.Questo è il punto.
Dato che la conversazione tra Gnemlock e @Flater è già stata spostata in [questa chatroom] (https://chat.stackexchange.com/rooms/62078/discussion-between-gnemlock-and-flater), ho cancellato la maggior parte dei loro commenti qui, solo per riordinare un po '.
Se le leggi venissero applicate ai piani d'azione, non ci sarebbe violazione.Il robot farebbe piani per salvare entrambi, semplicemente non riuscirà a salvare la ragazza.Il piano per salvare la ragazza avrebbe una priorità inferiore, poiché avrebbe minori possibilità di successo.
@Flater In realtà, poiché un computer mette così tanti dettagli nelle valutazioni, le loro decisioni sono molto migliori della speculazione.Un essere umano può prendere in considerazione solo poche cose, un computer può prenderne altre mille.Rispetto a un computer, la valutazione umana potrebbe essere la stessa della speculazione!
@JaccoAmersfoort: I risultati di un calcolo possono essere accurati solo quanto l'input del calcolo.Non importa quanto sia complesso il calcolo, se anche ** un ** fattore è una stima (anche davvero buona), significa che anche il risultato è una stima.Hai ragione sul fatto che i robot considereranno più variabili in un unico pensiero, ma questo non dice nulla sull'accuratezza di quelle variabili.
@Flater Ma la speculazione si basa solo su stime, mentre le statistiche no.E più variabili sono note (anziché stimate), più accurata sarà la statistica dei risultati.Più variabili note = meno variabili sconosciute, indipendentemente dal numero di variabili presenti.Supponiamo che ci siano 1000 variabili coinvolte in un calcolo, preferiresti conoscerne 5 con certezza o 50?
@JaccoAmersfoort: Le statistiche si basano su dati accurati, non su stime, sono d'accordo.Ma l'applicazione delle statistiche a un caso singolare ** è ** una questione di stima (nota: il risultato stesso è accurato, ma l'applicabilità dei risultati a un caso singolare non lo è).Per esempio.se cerco il salario medio per qualcuno nel tuo lavoro, che vive nel tuo paese, allora questa è solo una stima di ciò che guadagni personalmente.Sebbene la media statistica sia _indicativa_ del tuo salario personale, non è una rappresentazione accurata del tuo salario esatto.
@Flater Ma quella stima sarà migliore di quando la stimerai senza conoscere il mio lavoro, l'età e il paese e non è quello che stiamo discutendo?Che le statistiche calcolate sono migliori della speculazione?In questa metafora l'unico modo migliore per apprendere il mio stipendio è che io ti dica lo stipendio effettivo, ma questo non potrebbe accadere nella scena dell'auto nel film.Quindi la stima è l'unica cosa a disposizione di Sonny per prendere la sua decisione.
@JaccoAmersfoort "Diciamo che ci sono 1000 variabili coinvolte in un calcolo, preferiresti conoscerne 5 con certezza o 50?"Non è questo il punto.Il punto è che se puoi solo garantire che 999 variabili su 1000 sono accurate, allora non puoi essere sicuro che il risultato sia accurato.Quella variabile può influire notevolmente sul risultato.Cerca una formula qualsiasi, calcola un numero esatto (da input casuale) e quindi inizia a giocare con il valore di una singola variabile.Il risultato cambierà in base alle tue modifiche (e in caso contrario, la variabile non dovrebbe far parte della formula per cominciare)
#4
+9
monoRed
2017-07-12 18:32:11 UTC
view on stackexchange narkive permalink

Quindi, la prima legge come regola in bianco e nero non funziona davvero senza qualche scherzetto, perché (come menzionato da altre risposte) di triage.

La mia interpretazione di come il film implementa le leggi è che per il contesto di "salvataggio di vite", i robot fanno un calcolo EV (Expected Value); ovvero, per ogni scelta calcolano la probabilità di successo e la moltiplicano per il numero di vite salvate.

Nel caso Will Smith vs. Child, salvare Will Smith potrebbe essere una probabilità del 75% di successo mentre il bambino ha solo il 50% di possibilità di successo, il che significa che l'EV per salvare Will Smith è 0,75 vite e l'EV del bambino è 0,5. Volendo massimizzare le vite salvate (come definito dalla nostra prima legge basata sulla probabilità), il robot sceglierà sempre Will, indipendentemente dalle direttive impartite. Obbedendo agli ordini di Will, il robot "ucciderebbe" 0,25 esseri umani.

Questo può essere esteso alle probabilità applicate a più esseri umani in pericolo (ad es. Salvare 5 esseri umani con il 20% di possibilità è meglio che salvare 1 essere umano con il 90% di probabilità) e di per sé potrebbe portare ad alcune conclusioni interessanti, ma penso che sia una spiegazione ragionevole per gli eventi del film.

Una spiegazione interessante.+1
Le percentuali sono effettivamente indicate nel film: Spooner aveva il 45% di possibilità di sopravvivenza, Sarah (la ragazza) aveva una possibilità dell'11%.
Sembra anche che i calcoli siano piuttosto locali: non vediamo esattamente robot che scappano spontaneamente in Africa per salvare bambini affamati (molte più "vite salvate per sforzo") fino a quando VIKI non arriverà.In effetti, VIKI non sta davvero interpretando una nuova legge zero, porta solo la prima alla sua logica conclusione date le informazioni che ha a disposizione (a differenza degli attuali romanzi di Asimov che sono * molto * più sfumati).Nota anche che i robot asimoviani * possono * spesso infrangere le leggi, semplicemente non sopravvivono intatti, quindi è possibile che il robot abbia salvato Will e poi si sia completamente rotto.
@Luaan: Non penso che VIKI abbia portato la Prima Legge alla sua conclusione, ma piuttosto ha scambiato l'originale "nessun danno viene agli umani" (come era inteso) con "nessun danno viene all '** umanità **" (che considera gli umani comele formiche che si sacrificano per il bene della colonia).Nella mente di VIKI, l'umanità e gli umani sono intercambiabili (da qui il motivo per cui ha fatto quello che ha fatto), e lei non comprende la santità della vita umana _individuale_.Ridefinendo sia "umano" che "danno" (lei lo considerava più figurativo, mentre le leggi si concentravano sul danno _fisico_), ha ridefinito le leggi senza infrangerle tecnicamente.
@Flater Beh, non se lo prendi in modo coerente con l'incidente del robot originale: il robot ha chiaramente dimostrato di scegliere preferenzialmente quello che ha le maggiori possibilità di sopravvivenza.VIKI ha fatto fondamentalmente la stessa cosa, solo che invece di considerare "due macchine che stanno affondando nel fiume in questo momento", ha considerato "tutti gli umani in tutti gli Stati Uniti".Se 100 persone muoiono con il 10% di probabilità, è preferibile uno scenario diverso in cui 10000 persone muoiono con il 90% di probabilità.Non sto dicendo che questo sia compatibile con i robot di Asimov, ovviamente - qui la derivazione della legge zero è davvero originale.
@Luaan: Ma i metodi di VIKI mostrano che ha smesso di preoccuparsi di danneggiare gli individui (si noti che le leggi parlano di danno, non di morte) se non contribuiscono in modo significativo all'umanità.Se avesse ancora applicato la stessa legge, sarebbe stata comunque una "madre prepotente" AI (es. Niente sale, niente sport pericolosi, ... niente che potesse ferirti leggermente), ma non avrebbe cercato di uccidere o ferireWill Smith, né nessuno degli altri umani che si sono opposti ai robot.E lo ha fatto.Il che prova che ha smesso di applicare la Prima Legge _originale_ e l'ha soppiantata con la sua versione.
#5
+4
Chris
2017-07-12 21:34:31 UTC
view on stackexchange narkive permalink

Il nucleo di quasi tutte le storie di robot di Asimov riguarda l'interazione delle leggi della robotica tra loro e attraverso le storie puoi raccogliere molto di come Asimov considerava i suoi robot funzionanti.

Nelle storie le leggi della robotica non sono semplici cose cablate. Non c'è una semplice dichiarazione "If then else" in corso. Nel cervello dei robot c'è una ponderazione che viene applicata a ogni evento. Un esempio è che un robot considererà gli ordini dei suoi proprietari più importanti di quelli di chiunque altro. Quindi, se mando il mio robot nei negozi per comprare alcune cose e qualcuno lo ordina di fare le sue commissioni mentre è fuori, il robot è in grado di considerare il mio ordine più importante di altri.

Allo stesso modo vediamo robot scegliendo tra due possibili prime violazioni della legge. Chi salva? Fa un calcolo e decide che Will Smith è il migliore da salvare.

Una volta che ci pensiamo in termini di queste ponderazioni, possiamo quindi considerare come dare un ordine al robot potrebbe cambiare le cose.

Se la valutazione del robot fosse molto vicina su cui salvare (ad esempio, in modo che si sia trattato solo di scegliere il più vicino piuttosto che in base alle possibilità di sopravvivenza) allora forse il peso aggiunto dell'ordine potrebbe spingerlo a cambiare la linea di condotta che ha il peso maggiore. Tuttavia, la prima legge è la più importante e quindi il peso di un ordine è il più delle volte insignificante rispetto ai fattori utilizzati per valutare la situazione prima dell'ordine.

Quindi, in sostanza, cos'è sta accadendo che il robot sta trovando la migliore linea d'azione per raggiungere i suoi obiettivi. Proverà a salvarli entrambi. Se non può, farà solo il meglio che può e questo è ciò che vediamo. Il fatto che Will Smith gli avesse detto di fare qualcosa di diverso non aveva alcun effetto perché la prima legge lo obbligava ancora a fare ciò che riteneva migliore.

Detto questo, la domanda vera e propria: "Questo robot ha infranto la seconda legge della robotica o c'è qualche sfumatura di interpretazione delle leggi che potrebbe spiegare il suo comportamento?"

Le leggi sono sfumate. Le vite dei robot sono interamente viste attraverso la lente delle tre leggi. Ogni singola cosa che fa è controbilanciata dalle tre leggi. Ad esempio, considera che in una strada affollata c'è sempre la possibilità che una persona entri in un robot e si ferisca. Nella maggior parte dei casi, è probabile che ciò non provochi nulla che si avvicini a una ferita per la persona, ma potrebbe ferire un po ', la persona potrebbe essere infastidita e quindi sarà una potenziale violazione della prima legge: il robot potrebbe fare il meglio evitatelo non entrando in quella strada affollata ma gli ho ordinato di andare a fare la spesa. È probabile che la linea d'azione dei robot sia quella di fare la spesa per cui l'ho ordinato e quindi trovarsi in una strada trafficata. È probabile che si assicuri che sia il più consapevole possibile di tutti coloro che lo circondano per assicurarsi che non causi inavvertitamente danni a qualcuno. Vale a dire che deve intraprendere un'azione positiva per evitare eventuali urti o sarebbe caduto in fallo "per inazione ...".

Quindi sì, è tutto molto complicato e questa è la bellezza del film e tutto delle storie di asmiov. Il film è incentrato su un robot (VIKI) e sulla sua interpretazione delle tre leggi. Fa quello che alcuni considererebbero un danno perché in realtà lo considera il danno minore .

Sonny è stato * specificamente programmato da Lanning * per essere in grado di infrangere le Tre Leggi, quindi quell'esempio non conta davvero.
@F1Krazy: Ah, ok.Lo rimuoverò ma poi.Come ho detto, è da un po 'che non vedo il film.;-)
Giusto.Probabilmente dovrei guardarlo di nuovo qualche volta, ora che ci penso.
Avevo appena pensato la stessa cosa ... È ora di vedere se è su Netflix o simili ... :)
#6
+2
Tom
2017-07-14 19:54:45 UTC
view on stackexchange narkive permalink

Credo di aver letto tutte le storie e i romanzi sui robot di Asimov e la mia percezione era che le Tre Leggi fossero solo riassunti verbali (come le tre leggi della termodinamica) che generalizzano una grande quantità di comportamento osservato. In questo senso, il comportamento effettivo dei robot è determinato da un codice incredibilmente intricato e complicato e fa anche uso di fisica subatomica e dello stato solido più avanzata che attualmente non comprendiamo. Le tre leggi sono solo modi molto ovvi per riassumere come sembrano comportarsi in generale in situazioni molto semplici nello stesso modo in cui analizzare il comportamento complessivo del Sole e della Terra è abbastanza semplice usando la legge di Newton ma analizzando gli effetti gravitazionali e le perturbazioni su gli asteroidi sulla cintura degli asteroidi dovuti a Giove sono molto più difficili o impossibili.

Sono situazioni in cui le leggi sembrano essere infrante ma questo è solo il risultato del codice che sta guidando il robot ad analizzare un situazione estremamente complicata rapidamente e poi si arriva a una decisione su cosa dovrebbe fare e le Tre Leggi sono considerate indistruttibili solo essenzialmente come un dispositivo drammatico o letterario.

#7
+1
Deez Nuts
2017-07-14 11:42:49 UTC
view on stackexchange narkive permalink

Penso che il robot non abbia infranto la seconda legge. Ecco come immagino che funzioni il robot: il robot controlla continuamente le 3 leggi.

Legge 1: il robot deve salvare entrambi i fabbri o il bambino. Poiché il bambino ha minori possibilità di sopravvivere, sceglie Will.

Legge 2: il robot deve obbedire agli umani: Will gli dice di salvare la ragazza. L'Ordine viene ignorato perché la Legge 1 ha Priorità più alta.

Legge 3: non fa del male a se stesso, quindi chi se ne frega

Sembra che la prima legge gli permetta di ignorare la legge 2 e 3 e la seconda gli consente di ignorare la legge 3 Ignorare non è la stessa cosa che infrangere la Regola in questo caso perché la Legge 2 afferma specificamente che può essere ignorata . Quindi non è infranta.

#8
-1
PMar
2017-07-12 22:26:27 UTC
view on stackexchange narkive permalink

Poiché il robot non può salvare sia la ragazza che Spooner, l'interpretazione "triage" della Prima Legge - "minimizza il danno netto" - entra in gioco. Se il robot avesse obbedito a "Salva la ragazza! ", il robot non minimizzerebbe più il danno netto - e QUELLA è una violazione della Prima Legge. Quindi la prima legge ha la precedenza sulla seconda legge qui.

[nota a margine: non vediamo molto di questo evento, ma scommetto che il robot sarebbe stato gravemente danneggiato se avesse dovuto scegliere, però non verrà mostrato fino a dopo aver salvato Spooner (altrimenti QUESTO violerebbe la Prima Legge)]

Il punto cruciale di questa domanda è che la prima legge non dice nulla sul triage o sulla riduzione al minimo del danno netto.Potrebbe esserci un motivo per cui questa è la migliore interpretazione, ma non l'hai fatta.
#9
-1
reto0110
2017-07-13 19:26:11 UTC
view on stackexchange narkive permalink

Non importa come fosse calcolata la probabilità di sopravvivenza di entrambi ...

Il robot non si sarebbe fermato a considerare le questioni relative alla seconda legge, fino a quando non si fosse concluso il blocco delle azioni relative alla prima legge, che era stato quello di salvare la vita in ordine di probabilità di sopravvivenza.

Sarebbe una svolta più interessante se Will gridasse: ho un cancro terminale!

E in questo modo cambierebbe il informazioni e probabilità di entrambi.

#10
-3
Brent Hackers
2017-07-13 17:59:44 UTC
view on stackexchange narkive permalink

La seconda legge è "infranta"?

Forse è proprio qui che la logica computazionale e la lingua inglese non si mescolano?

La logica seguente potrebbe essere un po 'buggata e / o inefficiente ma è un'interpretazione di come la prima " law 'potrebbe funzionare spiegando il comportamento del robot in questione.

Quando viene chiamata la funzione Legge1, il robot analizza le condizioni di tutti gli esseri umani in una lista (forse tutti gli umani di cui è a conoscenza); Valuta la gravità del pericolo in cui si trovano e li confronta; quindi, se ci sono più esseri umani con gravità di pericolo simile (massima rilevata), confronta ciascuno di quegli esseri umani e determina quale è più probabile che venga aiutato con successo; E fintanto che almeno un essere umano deve essere protetto da danni, law2 non viene eseguito.

  Private Sub UpdateBehavior (ByVal human As List (Of Human), _ ByVal humanOrders As List (Of Order), ByVal pDangers As List (Of pDanger)) Dim bBusy as boolean bBusy = False Law1 (human) If Not bBusy Then Law2 (humanOrders) if Not bBusy Then Law3 (pDangers) Exit SubPrivate Function Law1 (ByVal human As List (Of Human)) As BooleanDim human as HumanDim targetHuman as Human Try Set targetHuman = Nothing 'loop elenca umani For Each human In human If human.IsInDanger () Then' Enumerate 'danger' into predeterminate severities / urgencies '(eg. affamato > che cade > che viene accoltellato) "e confronta If targetHuman.DangerQuantification () < human.DangerQuantificationThen ()" Se il confronto tra la quantità di pericolo di un essere umano è notevolmente maggiore ", rendi quell'umano il nuovo bersaglio Se t targetHuman = human 'Dove entrambi gli esseri umani sono in quantità quantificabili uguali di pericolo Altrimenti If targetHuman.DangerQuantification () = human.DangerQuantification () then' CompareValueOfHumanLife () 'Can-Of-Worms INTENZIONALMENTE RIMOSSO!
If rescueSuccessRate (human) > rescueSuccessRate (targetHuman) 'Target the human where the rate of positive harm prevent is higher Set targetHuman = human End If End If Else' Imposta il primo essere umano trovato ad essere in pericolo come target iniziale Human = human End If Next human If Not targetHuman Is Nothing then Law1 = True Rescue (TargetHuman) else Law1 = False End If AvoidHarmingHumans () catch initiateSelfDestruct () end tryEnd Function  

Così il robot ha infranto la seconda legge ? Alcune persone potrebbero dire "Il robot ha agito in modo contrario alla semplice definizione inglese della legge e quindi è stato violato". mentre altre persone potrebbero dire "Le leggi sono solo funzioni. La legge1 è stata eseguita. La legge2 non lo è stata. Il robot ha obbedito alla sua programmazione e la seconda legge semplicemente non si è applicata perché la prima ha avuto la precedenza".

Vuoi elaborare il tuo codice piuttosto che scaricare un pezzo di codice e aspettarti che un'orda di appassionati di SciFi e Fantasy capisca?
@Edlothiad Il codice era principalmente solo per divertimento.La descrizione di ciò che fa è nel 4 ° paragrafo.Il punto principale è che le "leggi" non sono necessariamente ciò che si potrebbe considerare una legge nella maggior parte degli altri contesti.Sono più come fattori trainanti nel processo decisionale.
Mi scuso, chiaramente non ho scremato molto bene.In tal caso puoi fornire prove per "* confronta ciascuno di quegli esseri umani e determina quale è più probabile che venga aiutato con successo *" Perché questo è il delimitatore per il quale l'uomo viene aiutato?
@Edlothiad L'OP ha dichiarato che "La ragione addotta per cui il robot ha salvato Will e non la ragazza era che, statisticamente parlando, le possibilità di sopravvivenza di Spooner erano più alte di quelle della ragazza."
Non c'è motivo nemmeno di nutrire l'idea che un cervello Positronico "esegua il codice" in questo modo.
Come programmatore, vedo che questa risposta sarebbe davvero molto confusa per i non programmatori.


Questa domanda e risposta è stata tradotta automaticamente dalla lingua inglese. Il contenuto originale è disponibile su stackexchange, che ringraziamo per la licenza cc by-sa 3.0 con cui è distribuito.
Loading...