Ako učíme robotov to správne od zlého?

algoritmus spozoruje falzifikáty na robotoch sociálnych médií správna nesprávna etikaPoznámka redakcie: Spoločnosť Digital Trends uzavrela partnerstvo s medzinárodne uznávanou konferenciou o dizajne, technológiách a používateľských skúsenostiach WebVisions, aby pomohla priviesť na tohtoročné podujatie v Portlande v Oregone svetelného Douglasa Rushkoffa. V rámci nášho partnerstva nás tiež potešilo, že uvádzame vybraný obsah z prehľadného blogu WebVision Word. Tento týždeň sa prispievateľ Mark Wyner pýta, ako postupujeme pri výučbe umelej inteligencie od nesprávneho. Užite si to!

Twitter pripustil, že až 23 miliónov (8,5 percenta) jeho používateľských účtov sú autonómne twitterové roboty. Mnohí sú tu preto, aby zvýšili produktivitu, uskutočnili výskum alebo sa dokonca trochu pobavili. Mnohé však boli vytvorené so škodlivými úmyslami. V obidvoch prípadoch je známe, že roboti sa správajú otázne eticky - možno preto, že ide iba o malé exempláre umelej inteligencie (AI).

Ľudia v súčasnosti vyrábajú oveľa sofistikovanejšie stroje, ktoré budú čeliť otázkam etiky v monumentálnych rozmeroch. Aj v smrteľnosti ľudí. Ako teda zabezpečiť, aby v pravý čas urobili správne rozhodnutia?

Zabudujte to alebo naučte

Kľúčovým faktorom úspešného budovania autonómnych strojov, ktoré sa symbioticky zhodujú s ľudskými bytosťami, je etika. A v zásade existujú dva spôsoby, ako naprogramovať etiku do strojov:

Najskôr ich môžete natrvalo nakódovať do svojich operačných systémov. Ide o to, že etika je subjektívna. Etika v stroji je podmienená etikou v jej pôvodcovi. Ale my ľudia sa nie vždy zhodujeme v našej morálke. Bojujeme vo vojnách kvôli etickým rozdielom. Takže ako budujeme autonómne stroje, aby boli etické, staviame sa na hranici našich existujúcich rozdielov.

roboty-správne-nesprávne-etika-2

Po druhé, môžete poskytnúť určité pokyny a potom zariadeniu umožniť osvojiť si vlastnú etiku na základe vlastných skúseností. Tento pasívny prístup ponecháva dostatok priestoru na nesprávne interpretácie morálky, ktoré sú podmienené pozorovaním správania. Zvážte nedávne zrútenie AI spoločnosti Twitter od spoločnosti Microsoft, Tay, ktorý bol podvedený k tweetingu rasistických nadávok a propagácii genocídy na základe falošného záveru o prijatej etickej normálnosti.

Tím spoločnosti Georgia Tech pracuje na druhej možnosti a učí kognitívne systémy, aby sa naučili čítať príbehy, ako sa správať spoločensky prijateľným spôsobom. Systém odmien nazvaný Quijote má pomôcť kognitívnym systémom identifikovať protagonistov príbehov, ktoré stroje používajú na zosúladenie svojich vlastných hodnôt s hodnotami ľudských bytostí. Nie je jasné, aké metódy Microsoft použil s Tay. Ak by však ich techniky boli preventívne, rovnako ako v prípade výučbového systému spoločnosti Georgia Tech, máme ešte ďaleko od upevnenia etiky v umelej inteligencii.

Etická paralýza

Toto všetko je teraz založené na myšlienke, že počítač dokáže pochopiť aj etiku. Ako ukazuje Alan Winfield vo svojej štúdii Smerom k etickému robotovi, keď sa počítač stretne s etickým paradoxom, je výsledok nepredvídateľný, často paralyzujúci. Vo svojej štúdii bol kognitívny robot (A-robot) požiadaný, aby zachránil „ľudského“ robota (H-robot) pred nebezpečenstvom. Keď A-robot dokázal zachrániť iba jedného z dvoch H-robotov, chradol a pripúšťal vo vlastnom zmätku, pričom ani jedného nezachránil.

O tom, či je etika vecou rozumu alebo emócií, sa vedie starodávna filozofická debata. Medzi modernými psychológmi panuje zhoda v tom, že etické rozhodovanie si vyžaduje racionálne aj emocionálne úsudky. Ako profesor Paul Thagard v článku o tejto téme poznamenáva: „Etické súdy sú často veľmi emotívne, keď ľudia vyjadrujú svoj silný súhlas alebo nesúhlas s rôznymi činmi. To, či sú tiež racionálne, závisí od toho, či je kognitívne hodnotenie, ktoré je súčasťou emócií, urobené dobre alebo zle. “

Rozhodnutia s následkami

Ak teda kognitívne stroje nemajú kapacitu na etiku, kto je zodpovedný za porušenie zákona? Momentálne to zrejme nikto nevie. Ryan Calo z University of Washington School of Law poznamenáva: „Robotika po prvýkrát kombinuje promiskuitu dát so schopnosťou fyzicky ublížiť; robotické systémy plnia úlohy spôsobmi, ktoré sa nedajú vopred predpokladať; a roboty čoraz viac stierajú hranicu medzi človekom a nástrojom. “

Proces legislatívy je náročne pomalý, zatiaľ čo technológia naopak exponenciálne ponáhľa.

Trestné činy môžu byť tiež dosť vážne. Holandský vývojár Jeffry van der Goot sa musel brániť - a jeho Twitterbot - keď na jeho dvere zaklopala polícia a informovala ho o hrozbe smrti zaslanej z jeho účtu na Twitteri. Potom je tu Random Darknet Shopper; nákupný robot s týždenným príspevkom 100 dolárov v bitcoinoch na nákupy na Darknet pre umeleckú výstavu. Švédskych úradníkov to nebavilo, keď si kúpili extázu, ktorú umelec vystavil. (Na podporu umeleckého prejavu však drogy nezabavili, kým výstava neskončila.)

V oboch týchto prípadoch úrady urobili, čo mohli v zmysle zákona, ale nakoniec odpustili ľudským majiteľom, pretože sa nedopustili výslovného alebo priameho spáchania trestného činu. Ako sa to však stane, keď ľudská bytosť rozpúta AI s úmyslom zloby?

Ironickou realitou je, že skúmame spôsoby, ako môžeme riadiť naše autonómne stroje. A okrem našej pochybnej schopnosti vštepovať im etiku sme často zmätení iba ich všeobecným správaním. Pri diskusii o metódach stojacich za ich neurónovými sieťami odhalil softvérový inžinier spoločnosti Google Alexander Mordvintsev: „… aj keď ide o veľmi užitočné nástroje založené na známych matematických metódach, v skutočnosti prekvapivo málo rozumieme tomu, prečo niektoré modely fungujú a iné nie.“

Môžeme držať krok?

Ak vezmeme do úvahy všetko, proces prijímania právnych predpisov je náročne pomalý, zatiaľ čo technológia naopak exponenciálne ponáhľa. Ako vysvetľuje Vivek Wadhwa z univerzity Singularity University: „Zákony nemôžu držať krok, pretože ... zákony sú v podstate kodifikovanou etikou. Že ako spoločnosť vytvoríme konsenzus o tom, čo je dobré a čo zlé, a potom sa stane to, čo je správne a čo zlé, a potom sa stane to, čo je legálne a čo nezákonné. Takto postupuje vývoj. Pri väčšine týchto technológií sme sa nerozhodli, čo je dobré alebo zlé. “

Ak zákon dobehne, možno si píšeme svoju vlastnú záhubu. Všetky tieto reči o robotoch, ktorí ovládli svet? Možno len hromadne chodia, kým nezatkneme toľko našej rasy, že sa nestaneme menšinou v autonómnych bytostiach. Mat.

Posledné príspevky

$config[zx-auto] not found$config[zx-overlay] not found