Hvad er de 3 love om robotteknologi? Og holder vi os til dem?

-

Vores nuværende teknologiske tilstand og især robotteknologi er tidligere blevet planlagt af flere science-fiction forfattere. En sådan forfatter var Isaac Asimov, der i sine værker definerede Tre love om robotik.

For ham og for hans tids publikum var alt dette science-fiction. I betragtning af historierne, der finder sted nogle årtier foran os, er de i dag måske ikke for langt fra hinanden, hvordan tingene udvikler sig med automatisering og robotik.

Asimovs love om robotter gav mening i deres tid, og de giver stadig mening i dag. Følger vi dem? Bruger vi denne litteratur, eller kasserer vi den blindt som et eventyr? Overvej denne artikel som en mening. Hvis du er uenig i et aspekt, vil jeg byde velkommen til dine tanker nedenfor i kommentarfeltet.

Lad os se på disse love om robotik, og om vi tager dem i betragtning for nutidens robotik.

Den første lov

"En robot må ikke skade et menneske eller lade passivitet lade et menneske komme til skade."

Det er relevant for skaberne at sætte begrænset magt, hvis den magt kunne ødelægge dem. Så prioriteten for robotter er ikke at skade et menneske eller lade dem komme til skade på en anden måde. Lad os tænke på et eksempel.

Et menneske er ved at gå ind i en travl vejkryds og ikke være opmærksom på de forbipasserende køretøjer. Hvis en robot skulle få øje på det, ville det hjælpe denne person og forhindre ham eller hende i at blive såret eller endda dræbt.

Robotter Tin Man Woman Android Gynoid Asimov Laws Robotics Blue White Background

Regner vi for dette i virkeligheden? Nej vi er ikke. Automatisering har altid været en del af branchen, men indtil nu har ikke engang robotarme intelligens, ikke for at skade mennesker. De mangler evnen til at identificere levende væsener på grund af manglende eller dårligt designede sensorer, og de har ikke prioritet til at følge denne første lov om robotteknologi.

Ulykker sker, og folk kan blive såret eller endda dræbt af robotter i dag, selvom det bare er for en fejl i systemet. Der vil altid være fejl i systemer.

Den anden lov

”En robot skal adlyde ordrer fra mennesker, medmindre sådanne ordrer strider mod den første lov.”

Det giver mening for mig, og jeg er sikker på, at det giver mening for dig. Ingen lov og intet program i verden gør noget godt, hvis den kunstige enhed kan omgå kommandoer.

Lad os springe tilbage til vores eksempelscenarie ovenfra. Hvis robotens ejer befalede robotten om ikke at hjælpe den truede person, ville robotten ignorere input og uanset anmodning strejke for at redde mennesket. Så hverken direkte eller indirekte kunne en robot blive en morder.

Implementerer vi dette i vores AI'er og robotter i dag? Nej vi er ikke. Du kan argumentere for kommandoer, der udføres som en del af deres systemteori og IT-arbejdsgangen bag, hvordan de fungerer, men den etiske baggrund for denne lov er ikke taget højde for. Hvis en maskincontroller ville give det rigtige input, er direkte eller indirekte skade på et menneske i denne teknologiske tilstand en mulighed.

Den tredje lov

”En robot skal beskytte sin egen eksistens, så længe en sådan beskyttelse ikke er i konflikt med den første eller anden lov.”

Dette tegner sig for at efterligne et af de mest primære instinkter for organiske skabninger. Vores primære prioritet er at overleve for enhver pris. Det giver mening at tage højde for denne lov også inden for robotteknologi, så længe den er prioritet mindre end den første og anden lov om robotteknologi som nævnt.

Robotprojektion Wall House Overflade Udenfor AI AI Asimov Laws Robotics Blue Dark Building

Igen, gå tilbage til eksemplet med den person, der er ved at gå ud på en travl gade. En robot ser denne person træde i fare og står i fare for at blive såret eller dræbt. Robotten beregner den bedst mulige handling og sørger for, at både mennesket og selve robotten forbliver uskadet. Hvis beregningen ikke tillader nogen sådan mulighed, vil robotten forsøge at redde denne person, selvom den måske bliver ødelagt under processen, idet den er opmærksom på, at dens eksistens ophører med at være.

Programmerer vi AI'er sådan? Nej vi er ikke. Vi giver ikke vores kunstige kreationer en selvbevidsthed, og i de eksperimentelle tilfælde, hvor vi prøver, er vi ikke i fare for at få prioritet til at bevare sin eksistens, medmindre vi er i konflikt med højere love.

Den efterfølgende tilføjede Zeroth Law

"En robot kan ikke skade menneskeheden eller ved at lade være med at lade menneskeheden komme til skade."

Denne lov blev tilføjet senere, og den tegner sig for logiske huller i sættet med robotlove fra Asimov. Ud over et enkelt menneskes fokus henvender denne lov sig til menneskeheden som helhed. Logikken her er, skader ikke et menneske, skader ikke en gruppe mennesker, skift ikke miljøet på en måde, der indirekte ville skade mennesker eller menneskeheden.

Nu bliver tingene vanskelige. For en komplet briefing om risiko- og værdiberegning, overvej at læse min artikelNår selvkørende biler beslutter, hvem der bor, og hvem der dør. ” For nu vil jeg dog forsøge at gøre det kort, så vidt eksempler går.

Robotter Ansigtsudtryk Kunstig tre-tunge ansigts mundbevægelse Asimov love Robotik blå hvid baggrund

Enhver form for risikoberegning fra robotter vil sandsynligvis være relateret til forsikringsdata og denne lov nul. Hvis en robot ser en risiko, men alligevel er i konflikt med hensyn til, hvem den skal hjælpe, vil den køre beregninger for at træffe en beslutning. Hvis både barn og voksen er i risiko for at komme til skade, kan det være, at den robot beregner en større værdi for menneskeheden når man redder den voksne. Ikke et humant valg, men sådan var loven heller ikke.

Men i det mindste vil denne Zero-lov tage højde for at tilsidesætte kolde forsikringsdata. Hvor grumt det end kan lyde, har en person, der oplever en skade, der vil handicappe denne person permanent, en større forsikringsomkostning end et dræbt menneske. Under hensyntagen til denne lov, i det mindste robot ville foretrække at leve være over en dræbt person. Det er gode nyheder, ikke?

Nu til den endelige vurdering. Tager vi denne Zeroth-lov om robotteknologi i betragtning for nutidens robotter og AI-styrede enheder? Helt ærligt ved jeg det ikke. Jeg kan kun håbe, at vi ikke kun lærer robotter at træffe beslutninger baseret på forsikringsomkostninger. Folks velbefindende bør være en prioritet. Direkte, indirekte på skalaen af ​​menneskeheden og hele jorden.

Resume og tanker

Okay, hvad er resuméet? Hvordan besvarer vi spørgsmålet, som overskriften stiller? Tre gange “nej” så vidt offentligheden er opmærksom på, og bonusspørgsmålet modtog kun et løst ”Jeg ved det ikke.” Ikke et meget lovende resultat.

Hvordan kommer det, at vi kasserer alt sådan? Bør disse regler ikke på en eller anden måde genovervejes? Selvom de stammer fra science-fiction historier, kan der være noget væsentligt ved dem. Måske kunne man også redegøre for dyr så langt det inkluderer også andre livsformer? Mad til eftertanke ...

Robotlegetøj Nærbillede AI Doll Face Asimov Laws Robotics Blue White Background

Hvad med militær brug? Normalt vil det ikke være industrien, der er den første investor af en sådan teknologi. Ville Robotics Laws være slukket for offensive robotter? Skal de alle kun indstilles til forsvarstilstand? Hvem er det, der er det her, og hvem er klar til at trække stikket, når det går galt?

Jeg tror ikke, vi ikke skal arbejde på automatisering og robotik, men hvorfor ikke sørge for, at vores skabelse ikke bliver vores fare? Måske kunne vi tænke lidt længere over teorien, før vi anvender hver opnåede milepæl for at være et produkt. Mere tid brugt på "skulle" snarere end "kunne" måske. Mere ”hvad hvis” end “hvordan man” tænker over. Ikke kun fordi de vil erstatte mange arbejdere.

Jeg glæder mig over ideen om at bygge kunstige enheder. Personligt nyder jeg denne tanke i mange aspekter. Jeg indkalder kun forskerne, ingeniørerne og beslutningstagerne til ikke at håndtere dette som frigivelsen af ​​ny software eller teknisk gadget. Vær smart.

Hvad synes du? Er vi på den bedste måde at udslette, som det er portrætteret i film som Terminator serie eller Matrix? Eller er robotik en uovertruffen fremgang uden risiko? Kan vi sameksistere? Send dine kommentarer nedenfor!

Foto kredit: Cristian UngureanuBruno CordioliSiyan RenCafe Neu RomantikDoc Chewbacca
kilde: WikipediaHarriet Agerholm (Independent)

Var dette indlæg nyttigt?

Christopher Isak
Christopher Isakhttps://techacute.com
Hej og tak, fordi du læste min artikel! Jeg er Chris grundlægger af TechAcute. Jeg skriver om teknologienyheder og deler erfaringer fra mit liv i virksomhedsverdenen. Kom forbi på Twitter og sig 'hej' engang. ;)
- Annoncering -
- Annoncering -
- Annoncering -
- Annoncering -
- Annoncering -
- Annoncering -