Googles principper for AI-udvikling i en nøddeskal

-

Jeg bliver ved med at prædike, at AI er ønskværdigt, men kræver gode regler og forskrifter at følge. At have sådanne love på plads ville gøre det muligt for forskere og udviklere at redegøre for overholdelsen ved at implementere dem meget tidligt i systemet, som en kernefunktion, med mindre risiko for at blive omgået eller fejlfortolket.

Som en pioner inden for teknologi gør Google også en stor indsats inden for AI-forskning og anvender AI til at løse eksisterende problemer. De er ikke som Asimovs love for robotteknologi men jeg tror, ​​de også giver meget mening i denne særlige sammenhæng.

Googles 7 AI-principper

Man kan diskutere deres anvendelighed, men det vigtigste er, at en virksomhed har defineret principper for deres AI udvikling, for at sikre, at intet kunne komme over styr. Her er, hvad de fandt på, ifølge et blogindlæg fra Googles administrerende direktør, Sundar Pichai:

  1. Vær socialt gavnlig.
  2. Undgå at skabe eller forstærke uretfærdig bias.
  3. Vær bygget og testet for sikkerhed.
  4. Vær ansvarlig overfor mennesker.
  5. Indarbejde principper for design af privatlivets fred.
  6. Overhold høje standarder for videnskabelig ekspertise.
  7. Gøres tilgængelig til brug, der er i overensstemmelse med disse principper.

Nogle vil måske hævde, at dele af disse AI-principper kun er til for at redegøre for politisk korrekthed, men vi taler om maskiner, der interagerer med levende væsener, så det er bestemt værd at definere AI for at afvise enhver form for racisme, sexisme og alle andre former for "ismer".

Metal-Mekanisk-Heste-Statue-AI-Regler-Love-Sky-Cloud-Building

Hvad er uden for rammerne her?

Google har også klart defineret, hvad de ikke har tænkt sig at overveje at arbejde med ved at etablere en "udenfor scope"-liste. Her er disse elementer, som ikke vil blive dykket ned i under F&U:

  • Teknologi, der kan forårsage skade på levende væsener (efterlader muligheden for at forårsage skade på "materiale", hvis fordelene opvejer risikoen)
  • Våben eller teknologi med det primære formål at forårsage skade (eller værre) på mennesker
  • Teknik, der udvinder data og behandler information til overvågning på en måde, der vil overtræde internationalt accepterede normer
  • Enhver form for dims, gadget, enhed eller tjeneste, der er eller kan være i strid med international lov eller menneskerettigheder

Når det nu er sagt og skrevet ned, kan vi kun håbe, at Googles moderselskab, Alfabet, ville også underskrive disse principper, ellers vil de ikke være af nogen som helst værdi. Hvis en værdifuld teknologi "sælges" til en anden juridisk enhed bare for at omgå disse principper, ville det hele være for intet.

Fotokredit: Funktionsbilledet “godt spil”Er gjort af Erik Lucatero. Billedet "fremtidens hest”Er gjort af Emile Guillemot.
kilde: AI hos Google: vores principper / Kristen P. Jones, Isaac E. Sabat, Eden B. King, Afra Ahmad, Tracy C. McCausland, Tiffani Chen (Wiley Online Library)

Var dette indlæg nyttigt?

Christopher Isak
Christopher Isakhttps://techacute.com
Hej og tak, fordi du læste min artikel! Jeg er Chris grundlægger af TechAcute. Jeg skriver om teknologienyheder og deler erfaringer fra mit liv i virksomhedsverdenen. Kom forbi på Twitter og sig 'hej' engang. ;)
- Annoncering -
- Annoncering -
- Annoncering -
- Annoncering -
- Annoncering -
- Annoncering -