Domanda:
Un robot programmato con un sistema operativo a 3 leggi può danneggiare un essere umano che sta danneggiando un altro essere umano?
Morgan
2014-04-13 08:54:37 UTC
view on stackexchange narkive permalink

Vediamo che un robot può attaccare un altro robot in difesa di un essere umano, ma un robot programmato in 3 leggi può difendere un essere umano da un altro umano?

Non senza infrangere la legge. Lo farei una risposta, ma non sono un avvocato.
Una domanda migliore sarebbe: un umano che sta per uccidere un altro umano e il robot può impedirlo solo uccidendo l'attaccante umano. Secondo me ciò dipende dalla complessità del robot, come da risposta Algernon_Asimov.
Dovreste leggere [The Naked Sun] (http://en.wikipedia.org/wiki/The_Naked_Sun) di Asimov, spiegherà molto!
La domanda nel titolo e la domanda nel corpo sono domande diverse.
I vari racconti di Isaac Asimov esplorano cosa accade quando si gioca con le tre leggi. Ciò include feedback positivi e negativi sulle varie leggi, incluso lo zero.
Sospetto che causerebbe un'eccezione di overflow dello stack ...
Sei risposte:
Algernon_Asimov
2014-04-13 10:37:49 UTC
view on stackexchange narkive permalink

Sì, è possibile.

Esistono diversi modi per difendere un essere umano da un altro umano che lo attacca.

Per cominciare, un robot potrebbe rimuovere la vittima dal luogo dell'attacco : prendi la vittima e scappa dall'aggressore.

Un robot potrebbe semplicemente stare tra l'aggressore e la vittima e bloccare l'attacco: lascia che l'attaccante lo colpisca invece della vittima.

Un robot potrebbe immobilizzare l'aggressore senza danneggiarlo, ad esempio avvolgendolo con le braccia intorno per impedire che colpisca la vittima.

Se era coinvolta un'arma, come un coltello o una pistola, il robot potrebbe disarmare l'aggressore afferrando l'arma. Se l'aggressore non ha lasciato andare la sua arma e il robot ha finito per danneggiare l'attaccante, ciò causerebbe problemi al robot e il livello del problema dipenderà dalla quantità di danni causati.

Lì esistono molti modi in cui un robot può difendere un essere umano dall'attacco senza danneggiare l'essere umano che lo attacca.

Tuttavia, se il robot non è stato in grado di fermare l'attacco in uno dei modi sopra indicati, potrebbe dover azione diretta. E il robot si spingerebbe per quanto necessario per difendere la vittima, fino a quando non danneggia l'aggressore. A quel punto, il fatto di danneggiare attivamente un essere umano supera il potenziale danno per la vittima, e il robot deve fare i conti con la "colpa". Molti robot si spegneranno semplicemente a questo punto. Alcuni diventerebbero disorientati e richiederebbero assistenza. Solo pochissimi robot altamente avanzati (come Daneel Olivaw o Andrew Martin o Giskard Reventlov) sarebbero in grado di affrontare il danno che hanno causato, bilanciandolo con il danno che hanno prevenuto.

Per quanto ne so , lo scenario di un robot che difende un essere umano dall'attacco di un altro umano si è verificato solo una volta in una qualsiasi delle storie di Asimov. Per descriverlo sarà necessario rovinare la fine di "Robots and Empire". Se non hai letto quel libro e non vuoi che il finale venga rovinato, dovrai saltare il resto di questa risposta. Scusa!

In quel libro, un paio di umani (Spaziali) stavano cospirando per irradiare la Terra. Avevano motivazioni diverse: Levular Mandamus voleva irradiare lentamente il pianeta, nel corso dei secoli, semplicemente per costringere i terrestri a lasciare il pianeta; Kelden Amadiro voleva irradiare rapidamente il pianeta, in solo un decennio o due, il che avrebbe ucciso miliardi di terrestri che non sarebbero stati in grado di lasciare il pianeta in tempo.

Due robot, R. Daneel Olivaw e R. Giskard Reventlov, stanno cercando di impedirlo. Arrivano sulla scena e trovano Amadiro che punta un blaster contro Mandamus (cercando di convincere Mandamus a fare le cose a modo suo).

Più veloce di quanto l'occhio potesse seguire, un braccio teso per afferrare il polso di Amadiro , paralizzandolo con la pressione, e il blaster era sparito.

Daneel disse: "Mi scuso per averti dovuto infliggere dolore, dottor Amadiro, ma non posso permetterti di tenere un blaster puntato su un altro umano essere. "

Semplice: un robot ha causato dolore a un essere umano per impedirgli di ferire o uccidere un altro essere umano. Certo, Daneel era un robot molto avanzato. Robot più semplicistici potrebbero aver subito un congelamento del cervello dopo aver causato dolore per prevenire danni.

Più tardi, Giskard mette Amadiro in coma (Giskard ha poteri telepatici - lunga storia!) Quando Amadiro spiega che vuole farlo uccidere i terrestri. E Giskard non subisce effetti negativi da quell'azione, ma è un altro robot avanzato. In effetti, è il robot che inventa la legge zero della robotica: "Un robot non deve danneggiare l'umanità o, per inerzia, permettere che l'umanità venga a nuocere". ("Muore" per qualcos'altro che sceglie di fare in seguito, perché non è sicuro di aver fatto la scelta giusta per l'umanità.)

Questi sono due robot che hanno inflitto dolore e danno a un essere umano per prevenire lui: uccidere un essere umano visibile e presente; uccidendo molti umani, né presenti né visibili in quel momento.

Bella risposta. Non vedo nessuno che ne presenti uno migliore o più corretto. Ora dovrò leggere quella storia per un contesto completo.
In secondo luogo, vorrei solo sottolineare che * lascia che l'aggressore lo colpisca, invece della vittima * può e probabilmente causerà danni all'aggressore di robot più voluminosi. Scegliendo questa opzione, un tale robot infrangerebbe tecnicamente la prima legge, con le consuete conseguenze.
Nel complesso, ottima risposta. Ma va sottolineato che i robot hanno problemi reali a danneggiare gli esseri umani. Nella prima apparizione di R. Daneel Olivaw, sta portando un blaster ... con la sua cella di potenza rimossa, quindi non c'è possibilità di ferire un umano. In The Naked Sun, un robot impazzisce così tanto che la sua mente viene distrutta quando un essere umano viene ucciso di fronte a lui. (In realtà è irreprensibile, ma era coinvolto tangenzialmente e la "colpa" era troppo.)
Ottima risposta, alcune aggiunte: `` Per quanto ne so, lo scenario di un robot che difende un umano dall'attacco di un altro umano si è verificato solo una volta in una qualsiasi delle storie di Asimov. In precedenza nello stesso libro, Giskard ha messo Vasilia Aliena in coma anche. (Lui "muore" per qualcos'altro che sceglie di fare in seguito, perché non è sicuro di aver fatto la scelta giusta per l'umanità.) [...]; uccidere molti umani, né presenti né visibili al momento. Avresti potuto fornire i dettagli della decisione di Giskard, è molto rilevante per la domanda.
Toby
2014-04-13 15:06:44 UTC
view on stackexchange narkive permalink

Per aggiungere alla risposta di cui sopra, vale la pena ricordare che la prima legge afferma "Un robot non può ferire un essere umano o, per inerzia, permettere a un essere umano di venire a nuocere ."

La soluzione ideale per un robot conforme alle Tre Leggi è intervenire in un modo che prevenga il danno alla vittima ma non danneggi l'attaccante, entrando nel percorso dell'attacco, lo spostamento della vittima, ecc.

Se ciò non è possibile, il robot è stato messo in una posizione in cui ogni possibile risposta, incluso il non fare nulla, infrange le leggi. La sopravvivenza di un robot sembra dipendere da due fattori: quanto è sofisticato il suo "cervello" e se una violazione è significativamente più o meno grave delle alternative. Un robot sufficientemente avanzato sceglierà la linea di condotta che causa la più piccola violazione delle leggi; se il suo cervello è troppo semplice o le violazioni sono troppo grandi, si bloccherà.

L'implicazione, almeno per me, è che la formulazione tradizionale delle Leggi è in realtà solo un'approssimazione destinata ad essere facile da capire per i non specialisti. La vera implementazione sembra essere una funzione di ottimizzazione di qualche tipo, con un peso maggiore posto sulle leggi superiori rispetto a quelle inferiori. Se il robot può risolvere l'equazione per una data situazione va bene; se non può, inizia a rompersi.

CL-123X ha effettivamente ucciso il suo maestro nel racconto [Cal] (http://en.wikipedia.org/wiki/Cal_%28short_story%29) che può essere trovato raccolto in [GOLD] (http: // en. wikipedia.org/wiki/Gold_%28Asimov%29).
Inoltre, credo che ci siano stati casi occasionali di robot non abbastanza intelligenti da riflettere sul corso delle loro azioni per reagire rapidamente e poi pentirsi.
"La vera implementazione sembra essere una funzione di ottimizzazione di qualche tipo, con un peso maggiore posto sulle leggi superiori rispetto a quelle inferiori". Sì. Ricordo che Daneel lo spiegò in una storia. Se gli fosse ordinato di autodistruggersi, quasi certamente troverebbe un modo per aggirare l'ordine, il che va contro una lettura semplicistica della seconda e terza legge.
Asimov affronta esplicitamente la priorità delle leggi in diverse storie, in particolare ["Runaround."] (Http://en.wikipedia.org/wiki/Runaround_ (story))
keshlam
2014-04-13 23:38:27 UTC
view on stackexchange narkive permalink

Il problema qui è che la prima legge citata è scritta con un conflitto incorporato dovuto al fatto che "o" unisce due casi distinti. Ciò consente l'esperimento mentale presentato qui.

A meno che non conosciamo il fattore di ponderazione tra di loro (non necessariamente 1; 1) e a meno che non sappiamo come quella particolare situazione sarebbe valutata da quella particolare implementazione del cervello, Non sarò mai in grado di rispondere alla domanda.

Per un esempio di un conflitto che non può essere risolto a questo livello, guarda la storia Runaround

Jeff D.
2014-04-14 16:10:32 UTC
view on stackexchange narkive permalink

Questa è una domanda che ha avuto una risposta in evoluzione nel corso della vita di Asimov mentre lavorava su quelle che erano tutte le implicazioni delle tre leggi. Detto questo, alle domande originali si può rispondere solo con "sì, ma ..." perché i cervelli positronici e la programmazione sono diventati più complessi e sofisticati nel tempo in reazione agli eventi in quell'universo. Consiglio in particolare la storia del 1941 "Liar": http://en.wikipedia.org/wiki/Liar!_(short_story)

Adi
2014-04-16 16:48:21 UTC
view on stackexchange narkive permalink

The problem is that laws have to be interpreted, so the question is more about the implementation (interpretation of what is the right course of action) of robotic intelligence, especially with regards to that first law.

E.g.: What constitutes 'harm'? Even the tiniest scratch from a robot? This would not make sense to a reasonable person and that is the basis of English common law (which is also the foundation of US law and the laws of many other parts of the world).

What would make more sense to this reasonable person (me) would be to interpret the law in such a case as you describe such that any 'harm' inflicted on the human attacker by a robot is not greater than that which would, in all probability and by the robot's inaction, have been inflicted on the human victim the robot was protecting... but then you have the dilemma... of real harm inflicted on a potential attacker versus a possible/probable but not realized harm on a potential victim. In other words, laws applying to robotic actions will be just as big a can of worms as laws applying to humans and the people who will profit are the lawyers. ;-)

IMil
2014-05-24 02:40:32 UTC
view on stackexchange narkive permalink

Considera la seguente situazione: la persona A danneggerà (diciamo ucciderà) la persona B. Il robot può impedirlo solo danneggiando la persona A. Ad esempio, il robot è dietro le sbarre, ma può lanciare un mattone.

La prima legge afferma "Un robot non può ferire un essere umano o, per inerzia, permettere a un essere umano di subire danni". Se il robot lancia un mattone, ferirà l'umano A, ma se non lo fa, permetterà all'umano B di venire a fare del male. Finora, il robot è sul recinto. L'inazione sarebbe probabilmente una scelta più sicura, perché non può esserci la certezza al 100% che A non cambierà idea all'ultimo momento.

Tuttavia, se B grida "aiutami, robot!", L'azione soddisferebbe il 50% della prima legge e della seconda legge, mentre l'inazione sarebbe supportata solo dal 50% della prima legge. Questo potrebbe fare la differenza e costringere il robot ad agire. Qualsiasi ordine proveniente dalla persona A, anche apparentemente innocuo come "stai lontano", può essere ignorato dal robot poiché il loro intento è chiaramente contrario alla prima legge.



Questa domanda e risposta è stata tradotta automaticamente dalla lingua inglese. Il contenuto originale è disponibile su stackexchange, che ringraziamo per la licenza cc by-sa 3.0 con cui è distribuito.
Loading...