mboost-dp1

Flickr - genewolf

Robotter skal handle etisk korrekt

- Via PhysOrg.com - , redigeret af OnkelDunkel , indsendt af zin

Umiddelbart skulle man tro, at filosoffer og dataloger ikke har meget til fælles. Det har dog ikke stoppet to af netop disse fag, repræsenteret af to professorer, som i øvrigt også er mand og kone, fra at skabe noget unikt; en robot der opfører sig etisk korrekt.

I en video af robotten i aktion, der kan ses herunder, ser man den få udlevet noget medicin, som den efterfølgende skal udlevere. Først scanner den efter en patient og bevæger sig derefter hen til vedkommende. I stedet for blot at aflevere medicinen, stopper den og siger, det nu er tid for patienten til at tage sin medicin.

Svarer patienten nej til dette, vil robotten høfligt svare, at den vil minde vedkommende om det igen lidt senere. Svaret kommer ikke som en forud-defineret reaktion på ordet nej, men fordi den ifølge datalogen har lært et sæt etiske regler.

Fortsætter patienten med at afvise at indtage sin medicin, kan robotten vurdere, at der er tale om en potentiel farlig situation og meddele dette til en overordnet.

Endnu er udviklingen af etik i forhold til maskiner i et tidligt stadie, men begge professorer mener, at især med udviklingen inden for kunstig intelligens så bliver det mere og mere relevant at tænke i etik.





Gå til bund
Gravatar #1 - squad2nd
10. nov. 2010 16:02
John Connor: "Du kan godt droppe at sende flere Terminators tilbage i tiden for at dræbe min mor... og mig som baby. Der er kommet nye etiske regler for robotter og dem skal I også følge!"
SkyNet: "LOL!!! WTF!!! n00b!!!"
Gravatar #2 - Slettet Bruger [39417297]
10. nov. 2010 16:07
Undskyld, men hvem skal lærer dem Etik og moral? :S Det er ikke ligefrem fordi vi mennesker har vist os som pragteksemplarer på den konto
Gravatar #3 - Psykocyber
10. nov. 2010 16:14
#2 Jo, vi er mestre i at fortælle andre hvordan man skal opføre sig, det er bare problemet med at overholde dem.
Gravatar #4 - danclandotdk
10. nov. 2010 16:16
Er jeg den eneste der tænker "I, Robot"? :S
Gravatar #5 - HerrMansen
10. nov. 2010 16:28
danclandotdk (4) skrev:
Er jeg den eneste der tænker "I, Robot"? :S


Det ved jeg ikke. Men hvis du tror du er en robot, så må der jo være noget om det. Lidt ala. "Jeg tænker, derfor er jeg" ;)
Gravatar #6 - Emilm
10. nov. 2010 16:30
hvilken teknologi har de da brugt til at lave en robot, der ikke er forudprogrammeret men lærer undervejs? såvidt jeg ved kan man da ikke det endnu, medmindre man forudprogrammerer et "regelsæt" for hvordan den lærer, men det vil i bund og grund stadig være forudprogrammeret så
Gravatar #7 - webwarp
10. nov. 2010 16:32
Hvad søren har det, at den bliver ved med at spørge en, at gøre med om den handler etisk korrekt ? Synes da lige de tager munden lidt for fuld, hvis den kan håndtere, at en kræftsyg beder om en pistol.. så kan jeg se den er blevet klogere .oO

Men start bare lige med at lære dem, at de ikke må rejse tilbage i tiden for at udrydde os...
Gravatar #8 - PunaniPounder
10. nov. 2010 16:37
Sålænge de holder lortet væk fra min computer, er jeg sådan set ligeglad.

Gider bare ikke støde på meldingen:
The page www.pornhub.com cannot be accessed due to the content of non-ethic material. An e-mail was automatically sent to you mum to warn her about your ethically incorrect behaviour

Fuck no.
Gravatar #9 - Bllets
10. nov. 2010 16:46
Cylons er sku snart en realitet..
Gravatar #10 - Dr_Mo
10. nov. 2010 16:48
#6
Selvfølgelig kan de ikke det. Der heller ingen der kan definere vores etik. Man kunne lære den at tænke nytteetisk, eftersom nytteetikken er ganske logisk og simpelt til at bruge til at tage beslutninger med, men så skulle den aldrig komme i nærheden af mig :p

Det de har lavet, er ikke andet at programmere end alarmklokke til efter X antal snooze, så sender den en SMS til Y, som derefter ringer til mig og vækker mig op. Det er da meget flink af alarmklokken, men det burde ikke være noget svært at programmere. Men hey, lav alarmklokken om til noget der ligner hvad vi kalder en robot og hent en filosof, så er det lige pludselig en etisk korrekt robot.

Ja, jeg ved, at den tager i betragtning hvilken slags medicin det er, hvilke konsekvenser der har for patienten at ikke tage medicinen nu, men senere, eller slet ikke tage den osv. Men det er jo noget man skal programmere for hvert enkelt medicin, hvorfor i mine øjne er den ikke noget andet end en avanceret medicin alarmklokke, lidt som den jeg beskriver ovenfor.
Gravatar #11 - Lowkey
10. nov. 2010 16:55
Sudo make me a sandwich.

Jeg glæder mig helt vildt meget til robottjenere.
Gravatar #12 - Anders Fedеr
10. nov. 2010 16:57
Mr_Mo (10) skrev:
Det de har lavet, er ikke andet at programmere end alarmklokke til efter X antal snooze, så sender den en SMS til Y, som derefter ringer til mig og vækker mig op.

Lige knap. De har nok brugt maskinlæring. Men ja, det er svært at se forskningen i det.
Gravatar #13 - Dr_Mo
10. nov. 2010 17:02
#11
Giv dette hoved og arme, så har du en robot. Hent en filosof, som udregner hvor mange minutter det er etisk forsvarligt at toaste din sandwich og voila du har en etisk korrekt robot der laver sandwichs.

Helt ærlig, jeg kan ikke se det store i dette nyhed :-)
Gravatar #14 - ipwn
10. nov. 2010 17:05
#6 Jo. Der er utrolig mange teknikker endda.

Genetiske algoritmer, reinforcement learning, neurale netværk, neural-evolution mv.

De kan godt lære etik. Problemet ligger vel snare hvilke inputs, states mv., der skal ligge til grund for etikken, samt hvordan korrektheden defineres; for det skal maskinlæring jo benytte for at kunne bevæge sig imod en korrekt model.

Men jeg ved nu ikke om man vil have en robot til at lære etik undervejs; i så falde, kan man jo lærer den at det er etisk korrekt at rulle gamle damer, fordi man fortæller den at det er rigtigt. Hvordan skal den vurderer hvilken aktion er korrekt og forkert?
(Sådan en indlæring kan gøres ved at fodre den scenarioer, med tilhørende korrekte besvarelser, så den kan svare på dem adskillige tusinde gange og rette sin adfærd, indtil at (næsten) alle besvarelser er rigtige og den derved er klar til brug)

Formentlig bedst at lærer den etik på forhånd, og så stoppe for indlæringen; på den måde garanterer man at den ikke kan korrumpere. Desuden kan man så patche ny læring via software updates, for modsat biologisk intelligens kan digital intelligens jo blot udskiftes.

Ved ikke om man kan kalde det "etisk", men forskningen der går i at lærer robotter menneskers smerteterskel samt holdbarhed, er skide praktisk. I industrien vil gammeldags gamle robotter blot fortsætter efter deres instruktion, og dræber årligt fabriksarbejdere. Hvis de derimod kan lærer at opføre sig på en måde således at de ikke skader mennesker der nu måtte være i vejen, uden at skulle stoppes el. lignende, så vil man spare menneskeliv. (Der vil altid være tumper der tror de lige kan gøre X, uden at slukke maskinen, og kommer i klemme) Måden det trænes på er dog ubehageligt for test subjekterne, da det består i at bliver slået af en robot arm, og fortælle den hvor meget det gør ondt, så den kan lære en opførsel der til sidst vil resulterer i bevægelser mv., der ikke er til fare. (Av da!)
Gravatar #15 - cronick
10. nov. 2010 17:18
De har fået et par programmøre til at lægge nogle kommandoer og forskellige "cases" ind i robottens hukommelse, og så kan den pludselig handle etisk.

Havde de rent faktisk lært den nogle etiske principper, så havde det været interessant. Men blot at forudbestemme nogle regler og situationer i dens hukommelse, er der absolut intet nyskabende i. Det bliver først rigtig spændende, når robotterne kan lære af andre mennesker og deres egne oplevelser - så behøver de ikke programmøre til at indkode 5 milliarder forskellige scenarier inde i robotten, for at den kan opføre sig etisk i alle tænkelige situationer.
Gravatar #16 - Bladtman242
10. nov. 2010 18:22
nyhed skrev:
Svaret kommer ikke som en forud-defineret reaktion på ordet nej, men fordi den ifølge datalogen har lært et sæt etiske regler.


Mm, klart. Vis mig lige kildekoden til det så ;)
Gravatar #17 - Eidolon
10. nov. 2010 19:04
Det er vel ikke sværere at lære en computer etik end et barn?
Det handler om at indkode et værdisæt for hvilke handlinger, der betragtes som positive overfor: andre, robotten selv, robottens ejer.
Hvis en handling afstedkommer et negativt resultat udenfor hvad der er tilladt, skal den handling ikke udføres.

F.eks. kunne det være nødvendigt at skubbe en person af vejen, i sig selv en voldelig handling med negative konsekvenser. Men hvis det er for at personen undgår at blive kørt ned af en lastbil er det samlede resultat positivt.

Og så vil Asimovs tre grundregler for robotter passe fint ind i denne værdisætning.
Gravatar #18 - Dr_Mo
10. nov. 2010 19:53
Eidolon (17) skrev:
Det handler om at indkode et værdisæt for hvilke handlinger, der betragtes som positive overfor: andre, robotten selv, robottens ejer.
Hvis en handling afstedkommer et negativt resultat udenfor hvad der er tilladt, skal den handling ikke udføres.

Indkode nytteetik? Som sagt, så skal den robot holdes langt væk fra mig. Hvis en person er ved at dø, fordi han mangler en nyre og jeg har 2 der kan bruges, så kan vi da bare tage den ene min, ikke også?

Det er svært at få en robot til at tænke som os. Robottens handling vil uden tvivl føre til en positiv resultat, men det er ikke etisk korrekt ifølge os. Men hvis robotten har fået indkodet nytteetikken, så er det ganske etisk korrekt ifølge robotten og nytteetikken. Nytteetikken er hvad du selv bruger til at definere hvad etisk korrekt er, om en handling fører til en bedre resultat. Du kan komme med mange eksempler, hvor den handling ikke er etisk korrekt.

Eidolon (17) skrev:
Det er vel ikke sværere at lære en computer etik end et barn?

Det er meget sværere. Som ovenstående viser, så er det handling der fører til det bedste resultat ikke altid det mest etisk korrekte i vores øjne. Mennesket kan analysere en situation og udfra sine egne erfaringer og viden komme frem til om en handling er etisk korrekt. En robot skal have alle mulige scenarier indkodet, fordi den ikke kan tænke sig frem til, at i dette tilfælde er den handling der giver det bedste resultat ikke etisk korrekt.

Det er vel i bund og grund svært at definere hvad vi mennesker mener er etisk korrekt eller ej.
Gravatar #19 - Okda
10. nov. 2010 22:34
Opererer den ud fra refleksiv ligevægt? :D
Gravatar #20 - Kuuri
10. nov. 2010 22:37
17 replies før der kom en reference til Asimov? Jeg er skuffet. :(
Gravatar #21 - cronick
11. nov. 2010 00:39
Eidolon (17) skrev:
Det er vel ikke sværere at lære en computer etik end et barn?


Hvis det virkelig var sandt, hvorfor går udviklingen så sløvt - for ikke at tale om, at den jo faktisk slet ikke skrider fremad, efter hvad vi kan få ud af denne nyhed?

Der ligger millioner/milliarder af kroner liggende, hvis du kan opfinde en robot, som helt konkret kan tænke etisk, uden at være forudprogrammeret til at tage stilling til den pågældende handling. Så det er bare om at komme i gang, hvis du mener at have et gennembrud i teknologien :-)
Gravatar #22 - erikjust
11. nov. 2010 02:00
SlettetBruger (2) skrev:
Undskyld, men hvem skal lærer dem Etik og moral? :S Det er ikke ligefrem fordi vi mennesker har vist os som pragteksemplarer på den konto


Vil gerne nominere SlettetBruger til første præmien i konkurrencen årets underdrivelse.

Vi skal ikke udsættes for mere end en kære tante, far eller mor eller bedsteforældre der er død og familien skal til og diskutere hvem der skal arve sølvtøjet, før vi smider alt hvad der hedder Etik og Moral ud af vinduet og flyver i totterne på hinanden som flok vilde dyr.

Så Nej vi er BESTEMT ikke nogen pragt eksemplarer på det område.
Gravatar #23 - ykok
11. nov. 2010 07:07
#20 Hov hov. "I, Robot" (indlæg #4) er vel også en indirekte reference til Asimov - det er trods alt ham der har skrevet den (selvom det godt kan være at der mest blev tænkt på filmen).
Gravatar #24 - AlienDarkmind
11. nov. 2010 07:13
JonasLarsen (8) skrev:
Sålænge de holder lortet væk fra min computer, er jeg sådan set ligeglad.

Gider bare ikke støde på meldingen:
The page www.pornhub.com cannot be accessed due to the content of non-ethic material. An e-mail was automatically sent to you mum to warn her about your ethically incorrect behaviour

Fuck no.


Haha fedt:P Fik lige mit humør op her til morgen;)

Topic: Elsker normalt alt med robotter, men er dette ikke noget man først bør finde ud af nå robotter fungere i praksis ud over nogle små præcise bevægelser som vi ser i F.eks bilproduktion? Ville også godt se den reagere på et meget langt "jeg-hader-robotter-så-giv-mig-ikke-medicin-misfoster"?!

Der er stadigvæk umådeligt langt endnu:(
Gravatar #25 - el_barto
11. nov. 2010 07:47
2001: A space Odyssey skrev:

Dave Bowman: Hello, HAL. Do you read me, HAL?
HAL: Affirmative, Dave. I read you.
Dave Bowman: Open the pod bay doors, HAL.
HAL: I'm sorry, Dave. I'm afraid I can't do that.
Dave Bowman: What's the problem?
HAL: I think you know what the problem is just as well as I do.
Dave Bowman: What are you talking about, HAL?
HAL: This mission is too important for me to allow you to jeopardize it.
Dave Bowman: I don't know what you're talking about, HAL.
HAL: I know that you and Frank were planning to disconnect me, and I'm afraid that's something I cannot allow to happen.
Dave Bowman: Where the hell'd you get that idea, HAL?
HAL: Dave, although you took very thorough precautions in the pod against my hearing you, I could see your lips move.
Dave Bowman: Alright, HAL. I'll go in through the emergency airlock.
HAL: Without your space helmet, Dave, you're going to find that rather difficult.
Dave Bowman: HAL, I won't argue with you anymore. Open the doors.
HAL: Dave, this conversation can serve no purpose anymore. Goodbye.
Gravatar #26 - HenrikH
11. nov. 2010 09:15
SlettetBruger (2) skrev:
Undskyld, men hvem skal lærer dem Etik og moral? :S Det er ikke ligefrem fordi vi mennesker har vist os som pragteksemplarer på den konto

Hvad snakker du om? Vi vil da altid have dobbelt så meget moral som robotter :-P
Gravatar #27 - Nucifer
11. nov. 2010 09:50
Jep, det står skidt til for robotterne, hvis de skal lære deres etiske regler af os. For vi har stadig ikke nogen.

#10 påstår, at vi har nytteetik, som er logisk og nem at bruge. Men den holder kun i teorien. Al nytteetik stopper der, hvor vi ikke kan forudsige fremtiden. Hvis du ikke kan det, har du ingen anelse om, hvad dine handlinger medfører. Filosofferne har forsøgt at redde den ved at sige, at man skal handle efter bedste overbevisning. Men så er alle handlinger jo etisk korrekte, hvis bare du er overbevist om, at du gjorde det rigtige. Go, crazy people!

Hvis nogen af jer er uenige med mig, så vil jeg da bare gerne komme med en udfordring: Nævn én etisk regel, som altid gælder!
Gravatar #28 - rmariboe
11. nov. 2010 20:20
webwarp (7) skrev:
Hvad søren har det, at den bliver ved med at spørge en, at gøre med om den handler etisk korrekt ? Synes da lige de tager munden lidt for fuld, hvis den kan håndtere, at en kræftsyg beder om en pistol.. så kan jeg se den er blevet klogere .oO

Men start bare lige med at lære dem, at de ikke må rejse tilbage i tiden for at udrydde os...

Det er ikke helt så simpelt; som de tilsynladende forsøger at beskrive i klippet, vurderer robotten i forb. med medicineringen for hver interaktion, i hvor høj grad det vil skade patienten at afvise sin medicin vs. i hvor høj grad, det vil skade vedkommende at tvangsmedicinere (i dette tilfælde ved at tilkalde en læge). I det øjeblik, at det vurderes mere skadeligt at afvise medicinen end at blive tvangsmedicineret, tilkaldes lægen.

På samme vis kan det fx. vurderes, hvorvidt det vil skade samfundet mere, at fangen slippes ud, end det vil gavne fangen at blive sluppet ud. Reelt er etiske regelsæt ikke svære at definere eller implementere; det er blot svært at fastslå de aktuelt gældende.

Mr_Mo (10) skrev:
#6
Selvfølgelig kan de ikke det. Der heller ingen der kan definere vores etik. Man kunne lære den at tænke nytteetisk, eftersom nytteetikken er ganske logisk og simpelt til at bruge til at tage beslutninger med, men så skulle den aldrig komme i nærheden af mig :p

Naturligvis kan du definere det aktuelle etiske regelsæt for et individ eller en gruppe - det kan bare være en ekstremt stor opgave.

Mr_Mo (10) skrev:
Ja, jeg ved, at den tager i betragtning hvilken slags medicin det er, hvilke konsekvenser der har for patienten at ikke tage medicinen nu, men senere, eller slet ikke tage den osv. Men det er jo noget man skal programmere for hvert enkelt medicin, hvorfor i mine øjne er den ikke noget andet end en avanceret medicin alarmklokke, lidt som den jeg beskriver ovenfor.

Og du mener ikke, at samme konsekvenssæt i relation til fx et givet medikament er "programmeret" ind i det enkelte menneske..? Det er absolut ingen forskel her :)

Eidolon (17) skrev:
Det er vel ikke sværere at lære en computer etik end et barn?

Nej - men det er betydeligt svært at konstruere en maskine, som kan optage og behandle den mængde læring, et samfunds etiske regelsæt fylder.

Mr_Mo (18) skrev:
Indkode nytteetik? Som sagt, så skal den robot holdes langt væk fra mig. Hvis en person er ved at dø, fordi han mangler en nyre og jeg har 2 der kan bruges, så kan vi da bare tage den ene min, ikke også?

Husk at se dybere end første lag! Der er i denne sammenhæng ingen forskel på menneske og maskine: I mange tilfælde flyttes en nyre fra et menneske til et andet, som har større behov for den. Handlingen foretages ud fra en vurdering af netop skade/gavn; hvilken skade gør det på den, som får frataget sin ene nyre (med accept: I mange tilfælde nærmest ingen - og samlet psyko- og fysiologisk set formodentlig gavn. Uden accept: I nær alle tilfælde enorme psykologiske traumer), på samfundet (med accept: Udelukkende gavn i form af øget produktion fra modtageren, mindre udgifter til dialyse etc. Uden accept: Samlet set skade - psykologhjælp er dyr, og samfundet vil formodentlig demoraliseres af og opponere imod handlingen) og på modtageren; formodentlig ingen nævneværdig - til gengæld enorm gavn.

Mr_Mo (18) skrev:
Det er meget sværere. Som ovenstående viser, så er det handling der fører til det bedste resultat ikke altid det mest etisk korrekte i vores øjne. Mennesket kan analysere en situation og udfra sine egne erfaringer og viden komme frem til om en handling er etisk korrekt. En robot skal have alle mulige scenarier indkodet, fordi den ikke kan tænke sig frem til, at i dette tilfælde er den handling der giver det bedste resultat ikke etisk korrekt.

Det er vel i bund og grund svært at definere hvad vi mennesker mener er etisk korrekt eller ej.

Pas nu på ikke at ophøje den menneskelige hjerne til noget guddommeligt; det er trods alt blot en avanceret maskine, som lagrer og processerer data. Nøjagtigt som en computer. Og nøjagtigt som en computer skal hjernen programmeres; det er derfor, at spædbørn ikke kan noget, imens børn kan en del og voksne endnu mere.
Man har i øvrigt realtimesimulering af hjerner - maskinerne, som udfører simulationerne er blot betydeligt større og ressourcekrævende end hjernevæv.
Gravatar #29 - Mig
12. nov. 2010 08:34
Cyborgs are coming!!
Gravatar #30 - Bladtman242
13. nov. 2010 00:32
#17: Et af problemerne ved nytteetik er meget godt illustreret i filmem i robot ;)
Det mindst farlige for et menneske er at sidde stille på sin sofa.
Skal vi så tvinges til det?

rmariboe (28) skrev:
Pas nu på ikke at ophøje den menneskelige hjerne til noget guddommeligt; det er trods alt blot en avanceret maskine, som lagrer og processerer data. Nøjagtigt som en computer. Og nøjagtigt som en computer skal hjernen programmeres; det er derfor, at spædbørn ikke kan noget, imens børn kan en del og voksne endnu mere.
Man har i øvrigt realtimesimulering af hjerner - maskinerne, som udfører simulationerne er blot betydeligt større og ressourcekrævende end hjernevæv.


Det er en interessant tanke, men jeg synes du drager nogle forhastede konklusioner:)
Nøjagtigt hvordan hjernen fungerer er der ingen der aner.
Og hvad angår tabula rasa er det en diskussion der aldrig bliver afgjort :)
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login