Yhteenveto robotiikan ja tekoälyn etiikasta, osa I: lait ja periaatteet

  • Posted on: 29 December 2017
  • By: Juho Vaiste

Sarjassa:

1. Yhteenveto robotiikan ja tekoälyn etiikasta, osa I: lait ja periaatteet
2. Yhteenveto robotiikan ja tekoälyn etiikasta, osa II: raportit, ohjeistukset, strategiat
3. Yhteenveto robotiikan ja tekoälyn etiikasta, osa II: artikkelipoiminnat (tulossa)
 

Alan Winfield tekee tärkeätä työtä blogissaan kokoamalla robotiikan ja tekoälyn etiikan periaatteita, lakeja, standardeja ja aloitteita yhteen. Käännän yhteenvedot suomeksi.

Ensimmäinen osa koskee lakeja ja periaatteita. Alkuperäinen teksti ja kokoelma löytyy: http://alanwinfield.blogspot.fi/2017/12/a-round-up-of-robotics-and-ai-ethics.html
 

Asimovin lait (1950)

1. Robotti ei saa vahingoittaa ihmisolentoa tai laiminlyönnein saattaa tätä vahingoittumaan.
2. Robotin on noudatettava ihmisolentojen sille antamia määräyksiä, paitsi jos ne ovat ristiriidassa Ensimmäisen pääsäännön kanssa.
3. Robotin on suojeltava omaa olemassaoloaan, kuitenkin siten, että sen toimet eivät ole ristiriidassa Ensimmäisen ja Toisen pääsäännön kanssa.

Winfield on sisällyttänyt Asimovin lait ymmärtääksemme, että ensinnäkin Asimov vakiinnutti periaatteen, että robotteja (ja tekoälyä) tulisi hallita ja ohjata lakien ja periaatteiden varassa. Toiseksi monet myöhemmät lait ja periaatteet rakentuvat vastaukseksi niihin. Asimovin lait julkaistiin ensi kertaa Asimovin lyhyessä tarinassa "Runaround". Wikipedian artikkelit kertovat laajasti laista ja niiden monista (fiktiivisistä) laajennuksista, suomeksi ja englanniksi. Yllä oleva käännös Wikipediasta.

 

Murphyn ja Woodin kolme lakia vastuulliseen robotiikkaan (2009)

1. Ihmisen ei tulisi toteuttaa robottia ilman parhaita mahdollisia juridisia ja asiantuntijastandardeja täyttävää ihminen-robotti-ohjausjärjestelmää
2. Robottien tulee vastata ihmisille heidän rooliensa suhteen tarkoituksenmukaisella ja asiaankuuluvalla tavalla
3. Roboteille tulee antaa riittävä tilanteellinen autonomisuus, joka suojelee sen omaa olemassaoloa niin kauan kuin tällainen suojaaminen tarjoaa sujuvan hallinnan siirron, joka ei ole konfliktissa ensimmäisen tai toisen lain kanssa.

Nämä lait määriteltiin ja esiteltiin artikkelissa Beyond Asimov: The Three Laws of Responsible Robotics.

 

EPSRC Robotiikan lait (2010)

1. Robotit ovat monikäyttöisiä työkaluja. Robotteja ei tulisi suunnitella yksinomaan tappamaan tai vahingoittamaan ihmisiä, poikkeuksena kansallisen turvallisuuden edut.
2. Ihmiset, eivät robotit, ovat vastuullisia agentteja. Robotit tulisi suunnitella ja niitä tulisi käyttää, mikäli mahdollista, noudattamaan olemassa olevia lakeja, perusoikeuksia ja -vapauksia, mukaan lukien yksityisyyttä.
3. Robotit ovat tuotteita. Ne pitäisi suunnittella käyttäen prosesseja, jotka varmistavat niiden turvallisuuden.
4. Robotit ovat valmistettuja artefakteja. Niitä ei tule suunnitella petollisella tavalla hyväksikäyttämään suojattomia ja haavoittuvia käyttäjiä; sen sijaan niiden koneellinen luonne tulisi olla läpinäkyvä.
5. Robotille tulee osoittaa juridisesti vastuullinen vastuuhenkilö.

Luonnos vuonna 2010 ja julkaisu verkossa vuonna 2011. Virallisesti julkaistu vasta vuonna 2017 osana kaksiosaista erikoisjulkaisua Connection Science. Näiden lakien esittely New Scientist -lehdessä vuonna 2011.

 

Future of Life Institute: Asilomar-lait hyvää tekevälle tekoälylle (Tammikuu 2017)

Winfield ei listaa kaikkia 23 sääntöä tai lakia, mutta listaa niistä 10, jotta niitä voi vertailla muiden määrittelyjen kanssa.

6. Turvallisuus: Tekoälyjärjestelmien tulee olla turvallisia läpi niiden operationaalisen eliniän ja tämä tulee olla todistettavissa silloin kun se on sovellettavissa
7. Virheiden läpinäkyvyys: Jos tekoäly tuottaa vahinkoa, tulee olla mahdollista saada selville miksi
8. Juridinen läpinäkyvyys: Jos autonominen järjestelmä ottaa osaa juridiseen päätöksentekoon, tulee sen tarjota tarvittava ja riittävä tarkastusmahdollisuus vastaavalle viranomaiselle
9. Vastuullisuus: Kehittyneiden tekoälyjärjestelmien suunnittelijat ja toteuttajat ovat vastuullisia sidosryhmiä niiden käytön, väärinkäytön ja toiminnan moraalisissa vaikutuksissa. Heillä on vastuu ja mahdollisuus muokata näitä moraalisia vaikutuksia.
10. Arvojen tarkistus: Laajasti autonomiset tekoälyjärjestelmät tulisi suunnitella sillä tavalla, että niiden tavoitteiden ja käyttäytymisen voidaan varmistaa olevan yhdenmukaisia ja linjassa ihmisarvojen kanssa läpi niiden toiminnan

11. Ihmisarvot: Tekoälyjärjestelmät tulee suunnitella ja toteuttaa siten, että ne ovat yhteensopivia arvokkuuden, oikeuksien, vapauksien ja kulttuurillisen moninaisuuden ideaalien kanssa
12. Henkilökohtainen yksityisyys: Ihmisillä tulee olla oikeus päästä käsiksi, hallinnoida ja hallita heidän tuottamaa dataa, kun tekoälyjärjestelmille on annettu mahdollisyys analysoida ja käyttää hyödyksi tuota dataa
13. Vapaus ja yksityisyys: Yksityistä dataa käyttävä tekoälysovellus ei saa kohtuuttomasti rajoittaa ihmisten todellista tai koettua vapautta
14. Jaettu hyöty: Tekoälyteknologian tulee hyödyttää mahdollisimman montaa ihmistä
15. Jaettu vauraus: Tekoälyn luoma taloudellinen vauraus tulee jakaa laajasti, hyödyttämään koko ihmiskuntaa

Kaikki lait ja lisätietoa löytyy täältä: https://futureoflife.org/2017/01/17/principled-ai-discussion-asilomar/

 

Japanese Society for Artificial Intelligence (JSAI) Eettiset ohjeet (Helmikuu 2017)

1. Myötävaikutus ihmiskunnalle: JSAI:n jäsenet myötävaikuttavat rauhan säilyttämiseen, turvallisuuteen, hyvinvointiin ja ihmiskunnan yleiseen etuun 
2. Lain ja määräysten noudattaminen: JSAI:n jäsenten tulee noudattaa lakia ja määräyksiä koskien tutkimusta, tuotekehitystä ja immateriaalioikeuksia kuin muita relevantteja sopimuksia. JSAI:n jäsenet eivät käydä tekoälyä vahingoittaakseen muita, ei suoraan taikka epäsuorasti.
3. Yksityisyyden kunnioittaminen: JSAI:n jäsenet kunnioittavat toisten yksityisyyttä tekoälytutkimuksessaan tai -kehityksessään. JSAI:n jäsenillä on velvollisuus käsitellä henkilökohtaista tietoa asianmukaisesti ja noudattaen asiaankuuluvia lakeja ja määräyksiä.
4. Oikeudenmukaisuus: JSAI:n jäsenet ovat aina oikeudenmukaisia. JSAI:n jäsenet tiedostavat, että tekoälyn käyttö on mahdollisuus tuoda uudenlaista, lisääntynyttä eriarvoisuutta ja diskriminaatiota yhteiskuntaan, eivätkä toimi puolueellisesti tai vääristyneesti kehittäessään tekoälyä.
5. Turvallisuus: Asiantuntijoina JSAI:n jäsenet tunnistavat tarpeen varmistaa tekoälyn turvallisuus ja tiedostavat vastuunsa tekoälyn pitämisessä hallinnassa.
6. Yhtenäinen toiminta: JSAI:n jäsenet 

6. Lahjomattomuus ja rehellisuus: JSAI:n jäsenet tiedostavat, kuinka merkittävä yhteiskunnallinen vaikutus tekoälyllä voi olla
7. Vastuullisuus ja sosiaalinen vastuu: JSAI:n jäsenten tulee vahvistaa ja osoittaa oikeaksi kehittämänsä tekoälyteknologian suorituskyky ja vaikutus.
8. Kommunikaatio yhteiskunnan kanssa ja itsensä kehittäminen: JSAI:n jäsenten tulee tähdätä tekoälyä koskevan yleisen ymmärryksen kehittämiseen yhteiskunnassa
9. Tekoälyn eettisten suuntaviivojen noudattaminen: Tekoälyn tulee noudattaa yllä olevia sääntöjä samalla tavalla kuin JSAI:n jäsenten tullakseen yhteiskunnan jäseniksi tai näennäisjäseniksi

Tausta ja ohjeistuksen tavoitteet löytyvät: http://ai-elsi.org/archives/514

Ohjeet kokonaisuudessaan, yllä lyhennetyt versiot: http://ai-elsi.org/wp-content/uploads/2017/05/JSAI-Ethical-Guidelines-1.pdf

 

Luonnos tekoälylaista, The Future Society's Science, Law and Society Initiative (Lokakuu 2017)

1. Tekoälyn tulee edistää ihmiskunnan, yhteiskuntien ja ympäristön hyvinvointia
2. Tekoälyn tulee olla läpinäkyvää
3. Tekoälyn valmistajien ja operaattoreiden tulee olla vastuuvelvollisia
4. Tekoälyn tehokkuutta tulee mitata sen käytännön sovellutuksilla joihin se on tarkoitettu
5. Tekoälyoperaattoreilla tulee olla tarkoituksen- ja vaatimuksenmukainen osaaminen
6. Tekoälylle siirrettävää päätöksentekoa säätelevät normit tulee määrittää syvällisen ja laajan julkisen keskustelun kautta

Artikkelissa avataan jokainen laki erikseen: http://www.abajournal.com/legalrebels/article/a_principled_artificial_in...

 

Montréal Declaration for Responsible AI draft principles (Nov 2017)

1. Hyvinvointi: Tekoälyn kehityksen tulisi viime kädessä hyödyttää kaikkien tuntevien olentojen hyvinvointia.
2. Autonomisuus: Tekoälyn kehityksessä tulisi edistää kaikkien ihmisten autonomiaa ja hallita tietokonejärjestelmien autonomisuutta vastuullisella tavalla
3. Oikeudenmukaisuus: Tekoälyn kehityksen tulisi edistää oikeudenmukaisuutta ja eliminoida diskriminaatiota, etenkin diskriminaatiota joka kohdistuu sukupuoleen, ikään, henkisiin tai fyysisiin kykyihin, seksuaaliseen suuntautumiseen, etniseen tai sosiaaliseen syntyperään ja uskonnollisiin vakaumuksiin.
4. Yksityisyys: Tekoälyn kehityksen tulee tarjota takeet yksityisyyden kunnioittamisesta sekä käyttäjilleen pääsy heidän omaan yksityiseen dataansa ja informaatioon mitä algoritmit saattavat käyttää
5. Tietämys: Tekoälyn kehityksen tulisi edistää kriittistä ajattelua ja suojella meitä propagandalta ja manipulaatiolta
6. Demokratia: Tekoälyn kehityksen tulisi edistää asioihin perehtynyttä osallistumista julkiseen elämään, yhteistyöhön ja demokraattiseen keskusteluun
7. Vastuullisuus: Tekoälyn kehitykseen osallistuvien eritahojen tulisi omaksua heidän vastuunsa työskentelemällä heidän teknologisiin innovaatioihin liittyvien riskien välttämiseksi ja selvittämiseksi

Lait löytyvät täältä: https://www.montrealdeclaration-responsibleai.com/

Lisämäärittelyt ja taustat: https://www.montrealdeclaration-responsibleai.com/the-declaration

 

IEEE General Principles of Ethical Autonomous and Intelligent Systems (Dec 2017)

1. Miten voimme varmistaa, ettei tekoäly loukkaa ihmisoikeuksia?
2. Perinteiset vaurauden mittarit eivät ota huomioon kaikkia tekoälyn vaikutuksia ihmisten hyvinvointiin.
3. Miten voimme varmistaa, että tekoälyn suunnittelijat, toteuttajat, omistajat ja operaattorit ovat vastuullisia ja kantavat vastuunsa?
4. Miten voimme varmistaa, että tekoäly toimii läpinäkyvästi?
5. Miten voimme laajentaa hyötyjä ja minimoida tekoälyn väärinkäytön riskejä?

Lait: https://ethicsinaction.ieee.org/
Julkaiseva organisaatio: IEEE Standards Association Global Initiative on Ethics of Autonomous and Intelligent Systems

Esityksen tarkoituksena ei ole tarjota sääntöjä tai lakeja, vaan esittää tarvittavat kysymykset ja huolet, täältä löytyy lisätietoa taustasta ja vaihtoehtoisista kysymyksistä: http://standards.ieee.org/develop/indconn/ec/ead_general_principles_v2.pdf

Why Principles Matter -teksti, IEEE general principles co-chair Mark Halverson
http://sites.ieee.org/futuredirections/tech-policy-ethics/september-2017...

 

UNI Global Union Top 10 Principles for Ethical AI (Dec 2017)

1. Vaadi tekoälyjärjestelmien olevan läpinäkyviä
2. Varusta tekoälyjärjestelmät "etiikan mustalla laatikolla"
3. Luo tekoäly palvelemaan ihmisiä ja planeettaa
4. Valitse ihminen komennossa -lähestymistapa
5. Varmista sukupuoleton, vääristymätön tekoäly
6. Jaa tekoälyjärjestelmien hyödyt
7. Takaa oikeudenmukainen perusoikeuksien ja -vapauksien siirto ja varmistaminen
8. Vakiinnuta globaalit hallintomekanismit
9. Kiellä vastuun siirtäminen roboteille
10. Kiellä tekoälyaseistuksen kilpa

http://www.thefutureworldofwork.org/media/35420/uni_ethical_ai.pdf