Ako dosiahnuť, aby boli roboti etickí tým, že ich naučili hovoriť č

učenie robotov ai, ako povedať, že žiadne chumáče Matthias Scheutz Matthias Scheutz Kelvin Ma / Tufts University Či už je to váš smartphone, ktorý sleduje vaše obľúbené reštaurácie so sebou, alebo váš webový prehľadávač, ktorý sleduje, ktoré webové stránky navštevujete najčastejšie, vo vašej domácnosti je pravdepodobne kúsok technológie, ktorá sa o vás učí.

Keď sa počítače v nasledujúcich rokoch transformujú z nástrojov na asistentov, budú študijné potreby technológie, ktorú denne používame, exponenciálne rásť. Tieto služby budú prepracovanejšie a budú siahať oveľa ďalej ako dnes - predtým však budú musieť byť oveľa inteligentnejšie.

Počítačové systémy, umelá inteligencia a pomocní roboti budú musieť zasiahnuť v knihách o celej rade tém - ľudská konverzácia, kultúrne normy, spoločenská etiketa a ďalšie. Dnešní vedci učia AI o lekciách, ktoré budú potrebovať, aby pomohli používateľom zajtrajška, a rozvrh kurzu nie je taký, aký by ste čakali.

Prvé kroky k inteligentnejšej AI

Minulý rok sa v medziach laboratória interakcie človeka a robota na bostonskej Tuftsovej univerzite priblížil malý robot k okraju stola. Po dosiahnutí tejto priepasti si robot všimol, že povrch, po ktorom kráčal, sa skončil a povedal svojmu operátorovi: „Prepáč, nemôžem to urobiť.“

Prístroj tým potvrdil, že práce, ktoré vykonali Matthias Scheutz a Gordon Briggs, boli úspešné. Dvojica sa rozhodla dať svojmu robotovi schopnosť odmietnuť požiadavku stanovenú ľudským operátorom. Tabletový akt sebazáchovy testovaného subjektu je ukážkou fungujúceho systému.

Scheutzov a Briggsov projekt je súčasťou rozhodujúceho odvetvia výskumu umelej inteligencie. Interakcia človek - robot - niekedy označovaná aj ako HRI - je základným prvkom našej ďalšej práce na praktickej aplikácii AI. Je ľahké zabudnúť, že väčšina robotov je stále väčšinou hypotetickou obavou, že tieto stroje sa jedného dňa budú musieť integrovať s ľuďmi, ktorým majú pomáhať.

Naučiť robota chodiť je jedna vec. Vyučovať toho istého robota, keď je bezpečné prejsť cez cestu, je úplne iné. To je jadro projektu, ktorý uskutočnili Scheutz a Briggs. Chceli dať robotovi schopnosť odmietnuť vydané príkazy, ak sa zdá, že vykonanie úlohy by mu spôsobilo škodu.

Pre človeka by sa to mohlo javiť ako implicitný prvok činnosti pohybu. Roboti však nemajú „zdravý rozum“.

Dôležitosť slova „nie“

Naučiť robota odmietnuť objednávku, ktorá ho vrhá do záhuby, je pre robota a pre kohokoľvek, kto ho vlastní, zjavným prínosom. Jeho význam však siaha oveľa hlbšie. Pomôcť robotovi povedať „nie“ znamená pomôcť mu naučiť sa posudzovať dôsledky jeho konania.

"Rovnako nechceme, aby ľudia slepo nasledovali pokyny od iných ľudí, ani nechceme, aby inštruovateľní roboti vykonávali ľudské príkazy bez toho, aby sme kontrolovali, aké sú ich účinky," uviedol Scheutz pre Digital Trends.

Musíme robotov naučiť neposlúchať príkazy, ktoré nie sú eticky v poriadku.

„Pokyny môžu byť v danej situácii nevhodné z mnohých dôvodov,“ pokračoval, „ale hlavne preto, že by mohli spôsobiť ujmu ľuďom alebo poškodiť majetok vrátane samotného robota. Robot by mohol uvažovať o možných výsledkoch pokynu v akcii, aby mohol zistiť potenciálne porušenia noriem a potenciálne škody vyplývajúce z akcie a mohol by sa ich pokúsiť zmierniť. “

V zásade, keď robot dostane inštrukciu kráčať vpred, skontroluje túto požiadavku na základe informácií, ktoré má po ruke. Ak sa niečo zdá byť v poriadku, robot môže potom vzbudiť obavy u ľudského operátora a nakoniec príkaz priamo odmietnuť, ak inštruktor nemá žiadne ďalšie údaje, ktoré by upokojili jeho obavy.

Vedecký proces neznamená taký chytľavý titulok ako hrozba povstania robotov pre nás ľudí. Bulvárne noviny ako Daily Mail informovali o Scheutzovej práci s karikatúrnym nadpisom špekulujúcim o blížiacom sa područí našich druhov v rukách vládcov robotov. O nás tu v spoločnosti DT je ​​známe, že vtipkujeme aj o robotickej apokalypse. Obyčajne je to dobrá zábava, ale v takýchto prípadoch to môže poškodiť schopnosť výskumníkov dostať svoje posolstvo ďalej.

"Vždy budú existovať odpovede, ktoré vytrhnú výskum z kontextu a zamerajú sa na to, čo sa nám javí ako nepríjemné, ako napríklad myšlienka robotov, ktorí nedodržiavajú naše príkazy," uviedol Scheutz v reakcii na správu Daily Mail. „Kľúčovým aspektom nášho výskumu, ktorý však tieto chytľavé titulky ignorujú, je naučiť robotovi odmietať príkazy, ktoré sú nie je eticky v poriadku - a iba tie. Aby ste neboli všeobecne neposlušní. “

Čo keby napríklad malý chlapec povedal domácemu robotovi, aby cez svojho malého brata vysypal horúcu kávu ako žartík? Zabezpečenie toho, aby sa to nemohlo uskutočniť, je životne dôležité pre úspech každej spoločnosti vyrábajúcej takúto technológiu pre spotrebiteľský trh a je to možné iba vtedy, ak má robot širokú databázu sociálnych a etických noriem, na ktoré sa môže popri svojej schopnosti povedať „nie“ odkazovať. “

Zvyšovanie zložitosti

Ľudia vedia, že majú prestať chodiť, keď sa blížia k prudkému poklesu alebo prečo je nevhodné poliať dieťa horúcou kávou. Naše skúsenosti nám povedali, čo je nebezpečné a čo to znamená. Či už sme v minulosti niečo robili alebo hovorili, môžeme využiť informácie, ktoré sme uložili, a informovať tak svoje správanie v novej situácii.

Roboty môžu riešiť problémy na rovnakom princípe. Musíme však ešte vyrobiť počítač, ktorý sa dokáže učiť ako človek - a aj tak je učenie sa etike procesom, ktorý trvá roky. Roboty musia mať k dispozícii informácie o doživotnej úrovni skôr, ako sa dostanú do sveta.

Rozsah tejto práce je ohromujúci, ďaleko nad rámec toho, čo by mnohí mohli čakať. Okrem učenia robota, ako plniť akúkoľvek úlohu, ku ktorej sú vyslaní, existuje aj ďalšia zložitosť ponúkaná mnohými zložitosťami interakcie človek-robot.

Andrew Moore je dekanom na Fakulte počítačových vied na Carnegie Mellon University. V tejto role poskytuje podporu skupine 2 000 študentov a členov fakulty, z ktorých mnohí pracujú v oblastiach súvisiacich s robotikou, strojovým učením a umelou inteligenciou.

„Sme zodpovední za pomoc pri zisťovaní, v čom bude rok 2040 žiť,“ povedal mi. „Sme teda zodpovední aj za to, že rok 2040 je veľmi dobrým rokom na život.“ Vzhľadom na to, že je pravdepodobné, že v tejto vízii budúcnosti budú hrať úlohu pomocní roboti, má Moore veľa skúseností vo vzťahu medzi strojom a používateľom. Na predstavu o tom, ako sa bude toto puto vyvíjať v nasledujúcich rokoch, používa známy príklad asistenta smartphonu.

Dnes mnohí z nás nosia smartphone, ktorý je schopný odpovedať na otázky typu „kto je súčasný prezident Spojených štátov?“ a zložitejšie otázky ako „aký vysoký sú prezident dcér Spojených štátov?“ Čoskoro uvidíme, že akcie založené na týchto otázkach sa stanú samozrejmosťou. Môžete napríklad požiadať svoj telefón, aby si objednal nové balenie plienok.

Na demonštráciu ďalšej fázy vývoja položil Moore zdanlivo neškodnú ukážkovú otázku. "Mám čas ísť si dať kávu pred ďalším stretnutím?"

Viac informácií o AI: Algoritmus strojového učenia vloží slová Georga W. Busha do úst Baracka Obamu

"Pod kapotou je veľa vedomostí, ktoré sa musia k počítaču dostať, aby mohol počítač odpovedať na otázku," uviedol Moore. Aj keď dnešná technológia dokáže tejto otázke porozumieť, na zodpovedanie systému je potrebných veľa údajov. Aká je linka v kaviarni? Ako je na tom doprava? Aký druh nápoja si užívateľ obvykle objednáva? Prístup počítača k týmto údajom predstavuje svoje vlastné výzvy.

Systémy umelej inteligencie budú potrebovať prístup k obrovskému množstvu informácií - niektoré z nich sú vytesané do kameňa, niektoré sa neustále menia - jednoducho na vykonanie zložitých úloh, ktoré od nich budeme očakávať za pár rokov.

Moore tento bod ilustruje porovnaním tónu hlasu, ktorý môže človek zaujať, keď hovorí so šéfom svojho šéfa alebo so starým priateľom. Niekde vo vašich databázach je jadro informácií, ktoré vám hovoria, že s prvými by sa malo zaobchádzať s určitými sociálnymi podnetmi, ktoré pri rozhovore s nimi nie sú také potrebné.

Ak požiadate Google, aby ukázal červené šaty, a jedným z výsledkov je hriankovač, celá sa rozpadne.

Pre človeka sú to jednoduché veci, ale niečo, čo musí byť vštepené do AI. A čím je úloha náročnejšia, tým dôležitejšia je presnosť. Opýtať sa asistenta, či si dáte kávu, je jedna vec. Čo však v prípade, že ste sa zranili a potrebovali ste vedieť, do ktorej nemocnice sa dá dostať najrýchlejšie - a možno potrebujete pomoc robotov? Chyba sa zrazu stáva životu nebezpečnou.

"Je skutočne celkom ľahké napísať program strojového učenia, kde si ho osvojíte pomocou mnohých príkladov," uviedol Moore. "Keď skončíte s touto prácou, nakoniec získate model." To funguje celkom dobre, a keď budujeme takýto systém, hovoríme o „presnosti“ a používame frázy ako „presnosť“ a „vyvolať“. Zaujímavosťou je, že je celkom jednoduché získať veci, ktoré sú správne, 19-krát z 20. “

„Pre mnoho aplikácií je to dosť dobré. Ale v mnohých ďalších aplikáciách - najmä ak je to spojené s bezpečnosťou alebo ak kladiete veľmi komplikované otázky - skutočne potrebujete, aby váš systém mal presnosť 99,9%. “

Problémom je aj dôvera používateľov. „[Ak] sa opýtate Google,„ ukážte mi 15 najobľúbenejších červených šiat “a zvrhne to výsledky. Iba jeden z nich je vlastne hriankovač, potom sa to celé rozpadne. Užívatelia tomu prestávajú dôverovať. “ Užívateľ, ktorý stratí dôveru v robota, ho pravdepodobne úplne prestane používať.

Vyučovanie všeobecných vedomostí

Aj bez ohľadu na konkrétne úlohy, ktoré má každá jednotlivá implementácia dosiahnuť, budú roboty a AI potrebovať na fungovanie vo voľnej prírode obrovské množstvo základných znalostí. Na zaistenie ich úspechu musí byť do mozgu stroja vtlačené všetko od sociálnych podnetov až po bezpečnostné predpisy.

Našťastie iné oblasti pomáhajú s niektorými prvkami tohto výpočtového učiva. "S vecami, ako je navigácia, a s analýzou výrazu tváre, existuje vedecká disciplína, ktorá má skutočne veľa skutočných údajov," uviedol Moore. Jednotlivé výskumné projekty môžu byť tiež často opätovne navrhnuté.

"Algoritmy, na ktorých pracujeme, sú všeobecné," povedal mi Matthias Scheutz v súvislosti s výskumom, ktorý spolu s Gordonom Briggsom viedli na Tuftsovej univerzite. "Môžu byť použité v akejkoľvek doméne, pokiaľ má robot potrebné zastúpenie akcií a noriem pre túto doménu."

Moduly, ktoré by mohli robotovi dať schopnosť rozpoznať ľudské výrazy alebo zabrániť pádu zo stola, majú určite svoje využitie. Každý by sa však postaral o veľmi malú časť základných požiadaviek stroja na prevádzku bez dozoru. Zovšeobecnený OS by mohol predstavovať základnú úroveň všeobecných poznatkov, ktorú by bolo možné ľahko zdieľať medzi rôznymi implementáciami.

„Jedným z hlavných donorov tohto druhu práce je skupina, ktorá financovala mnoho ďalších vecí, ktoré sa ukázali ako dôležité,“ uviedol Moore. "To je DARPA." Majú za sebou niekoľko veľkých projektov, ktoré sa nazývajú „bežné znalosti pre robotiku“. ““

Ak sa umelé inteligencie a pomocné roboty stanú realitou v nie príliš vzdialenej budúcnosti, bude pravdepodobne dôležitou súčasťou určitá verzia tejto platformy „bežných znalostí pre robotiku“. Môže to byť dokonca kľúč k širokému prijatiu hlavného prúdu.

Je potrebné urobiť ešte veľa práce, než bude k dispozícii znalostná základňa, ktorá môže podporiť prvú vlnu spotrebiteľských robotov. Konečný produkt môže byť vzdialený roky, ale základy potrebné na uľahčenie jeho tvorby nie sú sci-fi.

Posledné príspevky

$config[zx-auto] not found$config[zx-overlay] not found