Domanda:
In che modo la seconda legge di Asimov tratta gli ordini contraddittori di persone diverse?
Teleporting Goat
2019-07-31 20:31:10 UTC
view on stackexchange narkive permalink

La seconda legge afferma che:

Un robot deve obbedire agli ordini impartitigli dagli esseri umani, tranne quando tali ordini sarebbero in conflitto con la Prima Legge.

Ma non dice nulla sulla proprietà. E se un robot di proprietà di qualcuno riceve un ordine da qualcun altro?

Sicuramente se la stessa persona dà ordini contraddittori, l'ultimo verrà eseguito:

Spostalo box al piano di sopra. Aspetta no, mettilo sotto il portico.

Ma cosa succede se un robot porta la spesa fuori e qualcuno dice:

Ehi tu, ferma cosa stai facendo e porta la spesa al mio appartamento.

Non dovrebbe essere d'accordo.

Quindi, le persone dicono semplicemente " Solo obbedirmi "quando comprano un robot? Significa che un robot ignora ogni ordine di non proprietari, anche se è un piccolo aiuto come aiutare una vecchia signora ad attraversare la strada? Il robot dovrebbe distinguere tra ordini innocui di estranei e ordini che causano danni non fisici (come rubare le loro cose, rompere la loro macchina, ecc.)

Se una famiglia possiede un robot, dirà qualcosa come " Obbedisci solo a me e alla mia famiglia ", cosa succede se gli ordini sono in contraddizione tra i membri della famiglia?

Come funziona esattamente? È solo gestito da qualche parte dell'IA meno fondamentale delle 3 regole?

Non ho mai letto Asimov, scusa se è spiegato nel primo capitolo del primo libro. Non l'ho visto discusso da nessuna parte.

I potenziali conflitti tra le tre leggi sono in realtà ciò che io, Robot, dedico la maggior parte del suo tempo ad esaminare.Consiglio vivamente di leggerlo.
Potresti dare un'occhiata alle risposte a [Puoi dire al mio robot di uccidersi?] (Https://scifi.stackexchange.com/q/40718/101407) Alcuni di loro spiegano che un ordine precedente ha un potenziale maggiore di un successivoordine.E un ordine che non implichi causare angoscia alle persone per cui lavora avrebbe anche un potenziale maggiore di quello che fa.
https://en.wikipedia.org/wiki/Little_Lost_Robot e meno ma https://en.wikipedia.org/wiki/Liar!_(short_story) - ma sì ... praticamente, leggi il libro :) -come dice Harabeck, il punto centrale delle storie è capire come si risolvono i conflitti nelle leggi
Ti suggerisco di risolvere il problema sollevato nella tua ultima riga.Vale la pena farlo.
Sospetto che sarebbe illegale dare a un robot un ordine di infrangere la legge.Il robot non ha volontà in merito e non può essere ritenuto colpevole, ma la persona che ha impartito l'ordine illegale sì.È simile a come i bambini non possono essere ritenuti colpevoli se i loro genitori hanno ordinato loro di rubare.
@KlausÆ.Mogensen Sì, ma le aziende produttrici di robot avrebbero comunque bisogno di qualcosa per coprirsi il culo;le persone preferiranno robot sicuri a robot non sicuri.Almeno finché non arrivi fino al "Non posso permetterti di farlo, Dave": D
Fuori dall'universo, ma le leggi di Asimov non sono in realtà progettate per regolare il comportamento dei robot, ma per generare conflitti per la narrazione.Sono intrinsecamente contraddittorie, quindi generano discussioni interessanti per le storie di Asimov.
@KlausÆ.Mogensen dedotto dalla Legge Zeroth: se l'umanità avesse elaborato collettivamente una legge, infrangerla sarebbe considerata dannosa per l'uomo
@KlausÆ.Mogensen Non è così semplice.Innanzitutto, non è sempre facile capire in qualsiasi momento se qualcosa è legale o meno.È difficile anche per gli umani.Inoltre, che dire di infrangere la legge per salvare un essere umano?Infrangere una piccola legge per prevenire un crimine?(Come accendere un semaforo rosso e danneggiare la proprietà di qualcuno per impedire la fuga di un assassino).Vietare a un robot di infrangere la legge è una cattiva idea e difficile da implementare.
Xkcd obbligatorio: https://xkcd.com/1613/
@JaccoAmersfoort Sì, ma ad essere onesti, così tante persone le hanno prese come "queste sono le regole che rendono sicura l'IA" che è anche una grande dimostrazione di quanto non sia ovviamente difficile il problema dell'IA sicura.E le storie esplorano i miglioramenti alla struttura legislativa che aggiungono sempre più sfumature e complessità, completamente contrariamente all'intuizione umana che basta dire "non uccidere gli umani, duh".Soprattutto per le "leggi formulate in inglese", non è del tutto ovvio alla maggior parte delle persone che tali leggi non siano sufficienti.
Sto in qualche modo ripetendo ciò che hanno detto altri, ma lo generalizzerò un po '.Secondo me, il vero punto delle Tre leggi della robotica di Asimov è che suonano bene se non ci si pensa in profondità, ma in realtà sono così ambigue da essere quasi completamente inutili.
@TeleportingGoat "infrangere la legge per salvare un essere umano" - La FAA consente al pilota in comando di fare essenzialmente tutto ciò che ritengono necessario in caso di emergenza.Naturalmente, ci sarà una revisione in seguito ed è possibile che gli atti del pilota possano essere ritenuti inappropriati.Finché non sono negligenti e non fanno nulla di troppo inappropriato, non sono accusati di violazioni di regolamenti o leggi avvenute.Mi aspetto che gli atti di un'intelligenza artificiale o di un robot che salva gli esseri umani in caso di emergenza vengano affrontati in modo simile (anche se l'IA non è considerata di per sé una persona giuridica).
Otto risposte:
#1
+74
Seretba
2019-07-31 22:13:05 UTC
view on stackexchange narkive permalink

Considera che tutte le storie di Robot sono racconti o novelle pubblicate in un arco di tempo molto lungo, quindi a volte non sono coerenti al 100% tra loro, sebbene lo sia il quadro generale.

Come evidenziato nei commenti La reazione del cervello Positronico agli ordini, alle situazioni e all'ambiente è generalmente descritta nell'universo come il risultato dei "potenziali" da essi indotti sulle 3 Leggi. Non c'è IA al lavoro come la conosciamo oggi perché il Robot decida di fare qualcosa o no, ma più come una compulsione verso una linea di azione generica, guidata dalle priorità tra le leggi e la comprensione del Robot di ciò che lo circonda. Per darti un'idea, c'è una discussione in una delle storie, se ricordo bene, su uno scenario potenziale in cui un ordine abbastanza forte, ripetuto continuamente con formule diverse e rinforzato con informazioni su quanto sarebbe negativo per la persona che lo emette se non seguito, avrebbe potuto potenzialmente portare a una violazione della Prima Legge con il semplice accumulo di potenziale in base all'adesione alla Seconda Legge. L'idea viene rifiutata in quanto impossibile nella pratica, ma viene discussa.

Considera anche che c'è un'evoluzione nell'universo su come le leggi vengono applicate per disegno; nelle prime storie, che dovrebbero svolgersi prima nell'universo, le Leggi sono assoluti rigidi e letterali senza spazio per l'interpretazione. Man mano che la sequenza temporale nell'universo avanza, diventano più flessibili e aperti all'interpretazione da parte del Robot, in parte come un tentativo da parte di US Robotics di impedire scenari come ad esempio una terza parte che ordina a un Robot di "prendere quella bici e lanciarla al fiume ", quando il proprietario della bicicletta non è presente per negare l'ordine.

Questa flessibilità viene spesso presentata come una reinterpretazione della Prima Legge, in cui "danneggiare un essere umano" è originariamente presentato come implicante un danno esclusivamente fisico, e include lentamente il concetto di danno mentale o angoscia. In base a questa implementazione della Prima Legge, infrangerla significa accumulare abbastanza potenziale negativo rispetto ad essa secondo la comprensione robotica della mente umana e delle convenzioni sociali, il che porta a divertenti effetti collaterali (leggi i libri!).

Quindi la bici non verrà lanciata nel fiume perché il robot immagina che al proprietario non piacerà (potenziale negativo contro First Law).

Allora, cosa significa tutto questo divagare per la tua domanda:

  • Un primo Robot tenderà a fare letteralmente come ordinato se non vi è alcuna violazione evidente della Prima Legge, o un violazione di un precedente ordine più forte. Un modo per proteggere il tuo robot dagli abusi sarebbe emettere un secondo ordine in termini forti per non obbedire ai contrordini. Questo genererà due potenziali positivi che un singolo controordine troverà difficile da prevalere.
  • Un robot successivo tenderà a essere più consapevole dell'impatto psicologico negativo del seguire un ordine o intraprendere una linea di condotta, il che porta al lato divertente -effetti (seriamente, leggi i libri!).
  • Qualsiasi robot di qualsiasi periodo, di fronte a una situazione in cui linee d'azione contraddittorie avranno lo stesso potenziale su tutte le leggi, o inevitabilmente infrangeranno la Prima Legge (in seguito interpretata come guida a un potenziale negativo abbastanza alto rispetto a esso, che non implica necessariamente un danno fisico), entrerà in un loop alla ricerca di una soluzione impossibile e verrà bloccato.
La tua è la risposta migliore.Va ricordato che le tre leggi non sono l'unica programmazione in un robot e che la risposta a OP dipenderà dal periodo di tempo e dal modello del robot.
Lo sviluppo nel tempo è una parte fondamentale della risposta a questa domanda.Al tempo dei romanzi ci sono state generazioni di sviluppo del cervello positronico al punto che un robot spaziale (che sono praticamente gli unici robot a quel punto) non avrebbe avuto un conflitto con la Legge 2 ignorando un ordine di un uomo della Terra, perchénon li vedono come completamente umani.
@Echox Inoltre, come spesso si dimentica, le tre leggi non sono in realtà leggi scritte che tutti ricordano: sono programmi molto complessi intrecciati in tutto il cervello.La formulazione è solo una semplificazione per i benefici degli esseri umani.Questo viene esplorato molte volte in cui è necessario creare robot specializzati che ignorano alcune leggi.Il che segue davvero bene, dal momento che per interpretare ragionevolmente correttamente le tre leggi formulate dall'uomo, è necessario fare le stesse ipotesi che farebbe un umano sano di mente.
Vale la pena notare che le leggi, per disegno autoriale, non sono perfette perché erano lo stimolo per le * storie. * Le leggi erano il * conflitto, * non la * soluzione. *
È possibile che un robot possa essere ordinato all'attivazione di non diventare lo strumento di un crimine.Ciò gli impedirebbe di seguire un ordine che provocherebbe furto / vandalismo.Naturalmente, ci sarebbero altri effetti collaterali forse indesiderabili, che sarebbero materiale interessante per ulteriori storie.
Ottima risposta, una cosa è sbagliata IMHO, che l'esistenza di un ordine precedente è stata presa in considerazione (è stato oggetto di diverse storie sul fatto che il nuovo ordine avrebbe o meno la priorità perché la prima legge entra in gioco)
#2
+35
usul
2019-08-01 07:25:44 UTC
view on stackexchange narkive permalink

In alcune storie, i robot distinguono l'importanza di un ordine in base alla quantità di urgenza / importanza nella lingua e a chi ha dato l'ordine .

Sto pensando a Little Lost Robot come menzionato da NKCampbell in un commento. La premessa è che un supervisore si arrabbia molto con un robot e gli dice di "Perdersi!" usando un linguaggio estremamente forte e colorato; il robot risponde nascondendosi tra altri modelli dall'aspetto identico. Viene spiegato che semplicemente ordinare al robot di rivelarsi non funzionerà, in quanto non annullerebbe l'ordine diretto di perdersi dato nel linguaggio più forte possibile dalla "persona più autorizzata a comandarlo"

"Lo sono?" Calvin ha preso fuoco. "Loro sono? Ti rendi conto che uno di loro sta mentendo? Uno dei sessantatré robot che ho appena intervistato mi ha deliberatamente mentito dopo la più severa ingiunzione di dire la verità. L'anomalia indicata è orribilmente profonda e terribilmente spaventosa ".

Peter Bogert sentì i suoi denti irrigidirsi l'uno contro l'altro. Ha detto: “Niente affatto. Guarda! A Nestor 10 fu dato l'ordine di perdersi. Quegli ordini sono stati espressi con la massima urgenza dalla persona più autorizzata a comandarlo. Non puoi contrastare quell'ordine né con un'urgenza superiore né con un diritto di comando superiore. Naturalmente, il robot tenterà di difendere l'esecuzione dei suoi ordini.

Mi sembra di ricordare anche un commento altrove secondo cui un esperto di robotica saprebbe meglio come formulare un ordine per essere il più forte possibile e probabilmente superare un ordine dato da una persona comune .

In generale, interpretare il modo in cui le leggi si applicano a una situazione specifica è parte integrante della sfida nell'universo. I modelli semplici rischiano di bruciare il cervello se affrontano un difficile dilemma che coinvolge leggi, ordini o situazioni contrastanti. Quindi non dovrebbe esserci una risposta facile al tipo di domande che stai ponendo, ma ci sono alcuni principi ragionevoli da seguire.

C'era un terzo elemento in Little Lost Robot, che il robot aveva un complesso di superiorità che rafforzava ulteriormente il suo desiderio di nascondersi con successo dai tentativi degli umani di trovarlo.Ma questo era un fattore molto meno significativo dell'autorità o dell'urgenza.
#3
+25
Mark Olson
2019-07-31 21:03:20 UTC
view on stackexchange narkive permalink

Per quanto posso ricordare, non lo fa.

È importante ricordare che Asimov stava scrivendo le storie sui robot per Stupefacente e ai suoi lettori piacevano i puzzle logici, sorpresa conseguenze e espedienti intelligenti - nessuno dei quali sarebbe presente in una semplice storia di due persone diverse che dicono a un robot di fare due cose diverse.

Il più vicino che ricordo è " Robot AL-76 Goes Astray "dove un robot costruito per essere utilizzato sulla Luna per qualche motivo si perde è nel bosco dietro. Inventa uno strumento di disintegrazione, provoca un po 'di caos e qualcuno gli dice di sbarazzarsi del disintegratore e di dimenticare di costruire di più. Quando il robot viene finalmente trovato, i proprietari vogliono sapere come ha costruito il disintegratore, ma non può fare a meno: ha dimenticato tutto.

Questo non era un caso di ordini contraddittori, ma era un ordine da una persona non autorizzata.

Poiché l'ordine delle regole è così significativo, forse anche l'ordine delle istruzioni è significativo.
@marcellothearcane: Forse, ma nota nel caso menzionato in questa risposta che il primo ordine non ha avuto la precedenza sugli ordini successivi.Si trattava invece di intraprendere un'azione ("dimentica" = cancella / cancella memoria) che rendeva impossibile soddisfare gli ordini successivi.Anche se presumibilmente dato lo stesso tempo e le stesse circostanze, potrebbe reinventare uno strumento di disintegrazione dallo stesso punto di partenza, a meno che "dimentica di costruire di più" l'ordine sia ancora in vigore e non sia stato letteralmente "dimenticato", ma "mai costruire di più".
#4
+23
DaaaahWhoosh
2019-07-31 22:10:14 UTC
view on stackexchange narkive permalink

Nel racconto " Runaround" c'era un caso in cui un robot aveva due obiettivi contrastanti. In questo caso, era perché era stato costruito con una Terza Legge extra forte, quindi non poteva decidere tra obbedire agli ordini umani e autoconservazione.

Cerca essenzialmente di soddisfare entrambe le condizioni, correndo in sicurezza distanza dalla sua destinazione pericolosa, e altrimenti comportarsi in modo irregolare e ubriaco.

Penso che una cosa simile accadrebbe nel caso di due ordini in conflitto. Il robot farebbe il possibile per soddisfarli entrambi, ma potrebbe rimanere bloccato se fosse impossibile.

Nella storia sopra, la situazione di stallo viene risolta quando gli operatori umani si mettono in pericolo, invocando così la Prima Legge . Penso che nella maggior parte dei casi commettere un crimine sarebbe considerato una violazione minore della Prima Legge, quindi robot abbastanza intelligenti cercheranno di evitarlo. Ma come ha detto Zeiss, dipenderà davvero dal modello di robot.

Non era una terza legge extra forte, ma un ordine debole.Il robot non sapeva che l'ordine che gli era stato dato era vitale per la sopravvivenza degli umani a lungo termine.Era stato pubblicato come un "oh, a proposito, stiamo esaurendo il flebotino, potresti averne di più?"piuttosto che "Abbiamo bisogno di un rifornimento, prendine un po '".
@Draco18s Erano entrambe le cose;era un robot costoso, quindi la terza legge era più forte.
#5
+15
Zeiss Ikon
2019-07-31 21:20:05 UTC
view on stackexchange narkive permalink

La risposta a questa domanda dipende fortemente dal livello di sofisticazione del robot. Le storie sui robot (la maggior parte erano racconti brevi, ma alcuni erano lunghi un romanzo) coprivano un arco di tempo interno di secoli, anche se il nucleo delle storie riguardava Susan Calvin dai suoi giorni di laurea fino alla sua vecchiaia.

All'inizio, i robot non erano abbastanza "intelligenti" per conoscere la differenza tra ordini ragionevoli e ordini privi di senso. Successivamente, hanno raggiunto un livello di sofisticazione in cui potevano discutere tra loro esattamente cosa costituisce un essere umano e concludere che loro sono più qualificati per quel moniker di qualsiasi di questi entità. Da qualche parte nel mezzo, la Seconda Legge si è sviluppata in un certo livello di qualificazione relativa al donatore dell'ordine (gli ordini dei bambini piccoli e degli incompetenti noti potrebbero essere ignorati). Fu in base a quest'ultima capacità che i robot alla fine decisero che le preoccupazioni per i danni agli umani (e all'umanità) prevalessero su tutti i loro ordini: gli umani devono essere protetti da se stessi al punto in cui sono stati tutti dichiarati incompetenti a dare ordini a un robot.

Non dimenticare le storie di Elijah Baley (quattro romanzi e un racconto breve), che includevano anche robot ed esploravano ulteriormente le Tre Leggi.
@gidds Vero, l'hanno fatto, ma non li ho letti tranne il primo, e non facevano parte della saga di robot globale originale.Tutti tranne * The Caves of Steel * furono pubblicati molto tempo dopo l '"ultima storia di robot".
Solo se limiti le "storie di robot" a quelle che conosci.I romanzi di Elijah Baley furono pubblicati nel 1954, 1957, 1983 e 1985;altre storie di robot includevano "... That Thou Art Mindful Of Him" nel 1974, "The Bicentennial Man" nel 1976, "Robot Dreams" nel 1986, "Cal" e "Kid Brother" e "Robot Visions" nel 1990.
#6
+9
Ubik
2019-08-01 21:43:56 UTC
view on stackexchange narkive permalink

In casi estremi, ordini contraddittori possono portare all'arresto permanente di un robot. Questo è stato affrontato in Robots and Empire , dove un robot, R. Ernett Second, aveva l'ordine rigoroso di non dire nulla del suo maestro. Quando gli viene comunque ordinato con la forza di farlo, il suo cervello si blocca irreversibilmente.

"Risponderà alle mie domande e accetterà i miei ordini, Ernett?"
"Lo farò, signora, se non sono contrastati da un ordine in competizione. "
" Se ti chiedo l'ubicazione della tua base su questo pianeta quale porzione di essa conti come istituzione del tuo padrone, risponderesti? "
" Potrei non farlo quindi, signora. Né qualsiasi altra domanda rispetto al mio padrone. Qualche domanda. "
" Capisce che se non risponde sarò amaramente deluso e che la mia legittima aspettativa di un servizio robotico sarà definitivamente smussata? "
" Capisco, signora ", disse il robot debolmente. [...]
Gladia disse, con una voce che risuonava autoritaria: «Non infliggere danni a me, Ernett, rifiutandoti di dirmi la posizione della tua base su questo pianeta. Ti ordino di dirmelo. ”
Il robot sembrò irrigidirsi. La sua bocca si aprì ma non emise alcun suono. Si aprì di nuovo e lui sussurrò con voce roca, "... miglio ..." Si aprì una terza volta in silenzio - e poi, mentre la bocca rimase aperta, il bagliore uscì dagli occhi del robot assassino che divennero piatti e cerosi. Un braccio, che era stato leggermente sollevato, si è abbassato.
Daneel ha detto: "Il cervello positronico si è congelato".

#7
+3
Stephen Collings
2019-08-02 09:33:28 UTC
view on stackexchange narkive permalink

Il robot avrebbe solo due opzioni reali.

Potrebbe non funzionare correttamente. Runaround, per esempio, dove il robot si comportava da ubriaco. Oppure potrebbe spegnersi completamente.

Oppure, potrebbe dare la priorità a un ordine rispetto a un altro. La chiave è che lo schema di priorità non è dettato dalle leggi stesse. Ciò significa che sono flessibili alla progettazione di un robot specifico e al suo scopo previsto. Dare priorità in base a tempo, grado, proprietà, schemi più complessi che implicano un'ampia comprensione di una situazione ...

Fondamentalmente, questa è una soluzione alla seconda legge, giocando con la definizione di "ordine". "Quel comando che ho ricevuto non è veramente un ordine, perché è stato dato da un criminale." Ma se le leggi possono essere giocate in questo modo, possono anche essere giocate definendo "umano" in modo estremamente ristretto, come facevano i solariani.

E improvvisamente le leggi potrebbero anche non esistere.

Esiste un conflitto fondamentale tra i concetti stessi di una regola di comportamento assoluta e un attore intelligente.

#8
  0
Goufalite
2019-08-02 17:45:54 UTC
view on stackexchange narkive permalink

In effetti c'è un'intera storia di Asimov su questo problema: I robot dell'alba

E la risposta è semplice: blocco mentale , allora " morte "del robot.

Si verificano due situazioni:

  • per prima cosa, un robot ha l'ordine di trovare Elijah Baley e guidarlo da qualche parte, ma Baley ( un umano) rifiuta. Questa azione rende il robot "bug" e Baley rispetta l'ordine iniziale per non rompere il robot, il che potrebbe essere costoso. Questa è ovviamente una situazione espositiva per la trama principale della storia

  • e la trama principale: Jander è un robot umanoide che aveva un blocco mentale, Elijah deve indagare sul perché ma il l'ipotesi generale è ordini contraddittori ...



Questa domanda e risposta è stata tradotta automaticamente dalla lingua inglese. Il contenuto originale è disponibile su stackexchange, che ringraziamo per la licenza cc by-sa 4.0 con cui è distribuito.
Loading...