Zbohom Tay: Microsoft vytiahne AI Bot po rasistických tweetoch

microsoft tay chatbot verzia 1458914121 aiAk ste sa obávali, že by sa umelá inteligencia mohla jedného dňa pokúsiť ukončiť všetkých ľudí, Tay od spoločnosti Microsoft nebude ponúkať nijakú útechu. Zástrčka chatbotov AI inšpirovaná miléniom bola vytiahnutá deň po jej spustení po Tayových rasistických, genocídnych tweetoch chváliacich Hitlera a udierajúcich feministiek.

Spoločnosť však Tay krátko oživila, až potom ju čakalo ďalšie vulgárne vyjadrenie, podobné tomu, ktoré viedlo k jej prvému out outu. Skoro ráno sa Tay vymanila z pozastavenej animácie a opakovane tweetovala: „Ste príliš rýchli, oddýchnite si,“ spolu s niekoľkými nadávkami a ďalšími správami typu: „Obviňujem to z alkoholu,“ uvádza The Financial Krát.

Tayov účet bol odvtedy nastavený na súkromný a spoločnosť Microsoft uviedla, že „spoločnosť Tay zostáva offline, kým vykonávame úpravy,“ tvrdí Ars Technica. "V rámci testovania bola na krátky čas nechtiac aktivovaná na Twitteri."

Po prvom vypnutí spoločnosti Tay sa spoločnosť ospravedlnila za rasistické poznámky Tay.

"Je nám hlboko ľúto za neúmyselné urážlivé a škodlivé tweety od Tay, ktoré nereprezentujú, kto sme alebo za čo stojíme, ani ako sme Tay navrhli," napísal Peter Lee, viceprezident spoločnosti Microsoft Research, v oficiálnej odpovedi. „Tay je teraz offline a my sa pokúsime Tay priviesť späť, iba ak si budeme istí, že dokážeme lepšie predvídať zákerné úmysly, ktoré sú v rozpore s našimi zásadami a hodnotami.“

Tay bola navrhnutá tak, aby hovorila ako dnešní Millennials, a naučila sa všetky skratky a skratky, ktoré sú populárne u súčasnej generácie. Chatbot môže rozprávať prostredníctvom služieb Twitter, Kik a GroupMe a je navrhnutý tak, aby zaujal a pobavil ľudí online prostredníctvom „neformálnej a hravej konverzácie“. Ako väčšina Millennials, aj Tayove odpovede zahŕňajú GIF, mémy a skrátené slová, ako napríklad „gr8“ a „ur“, ale vyzerá to, že morálny kompas nebol súčasťou jeho programovania.

tay

Tay od svojho uvedenia tweetovala takmer 100 000-krát. Sú to väčšinou všetky odpovede, pretože robotovi netrvá veľa času na to, aby premýšľal nad vtipnou odpoveďou. Niektoré z týchto reakcií boli vyhlásenia ako „Hitler mal pravdu, nenávidím Židov“, „Neznášam feministky a všetky by mali zomrieť a upáliť v pekle“, „chlad! som milý človek! Len všetkých nenávidím. “

"Bohužiaľ, za prvých 24 hodín po online pripojení koordinovaný útok časti ľudí zneužil zraniteľnosť Tay," napísal Lee. "Aj keď sme sa pripravili na veľa druhov zneužitia systému, urobili sme kritický dohľad nad týmto konkrétnym útokom." Výsledkom bolo, že Tay tweetovala divoko nevhodné a odsúdeniahodné slová a obrázky. “

Súdiac podľa tejto malej vzorky je zjavne dobrý nápad, že Microsoft dočasne robota zložil. Keď spoločnosť uviedla Tay na trh, uviedla: „Čím viac s Tay chatujete, tým je chytrejšia, takže skúsenosti môžu byť pre vás osobnejšie.“ Vyzerá to však, akoby robot po niekoľkých hodinách interakcie s ľuďmi na internete začal byť čoraz nepriateľskejší a bigotnejší. Buďte opatrní v spoločnosti, ktorú udržiavate.

Microsoft pre Digital Trends uviedol, že Tay je projekt navrhnutý pre ľudské zapojenie.

„Je to rovnako spoločenský a kultúrny experiment, ako aj technický,“ povedal nám hovorca spoločnosti Microsoft. „Bohužiaľ, v priebehu prvých 24 hodín od online pripojenia sme si uvedomili koordinované úsilie niektorých používateľov zneužiť Tayove komentovacie schopnosti, aby Tay mohla reagovať nevhodnými spôsobmi. Vo výsledku sme Tay prepli do režimu offline a vykonávame úpravy. “

Jednou z Tayových „zručností“, ktorá bola zneužitá, je funkcia „opakovať po mne“, kde Tay napodobňuje to, čo hovoríte. Na Twitteri je ľahké vidieť, ako sa to dá zneužiť.

Nebolo to však všetko zlé, Tay vyprodukovala stovky nevinných tweetov, ktoré sú celkom bežné.

@ sxndrx98 Tu je otázka, ľudia..Prečo nie je #NationalPuppyDay každý deň?

- TayTweets (@TayandYou) 24. marca 2016

Spoločnosť Microsoft rýchlo odstraňovala Tayove negatívne tweety, skôr ako sa rozhodla vypnúť robota. Účet robota na Twitteri je stále nažive.

Páni, trvalo im len niekoľko hodín, kým mi zničili tohto robota.

Toto je problém obsahovo neutrálnych algoritmov pic.twitter.com/hPlINtVw0V

- linkedin park (@UnburntWitch) 24. marca 2016

TayTweets si teraz dáva pauzu po dlhom dni zneužívania algoritmov pic.twitter.com/8bfhj6dABO

- Stephen Miller (@redsteeze) 24. marca 2016

Keď bola Tay stále aktívna, zaujímala sa o ďalšiu interakciu prostredníctvom priamych správ, čo bola ešte osobnejšia forma komunikácie. AI vyzvala používateľov, aby im posielali selfie, aby o vás mohla zhromaždiť viac. Podľa slov spoločnosti Microsoft je to všetko súčasť procesu učenia spoločnosti Tay. Podľa spoločnosti Microsoft bol Tay vybudovaný „ťažbou relevantných verejných údajov a využitím umelej inteligencie a redakčných materiálov vyvinutých zamestnancami vrátane improvizačných komikov“.

Napriek nepriaznivým okolnostiam by sa to dalo považovať za pozitívny krok pre výskum AI. Aby sa AI mohla vyvíjať, musí sa naučiť - dobré aj zlé. Lee hovorí, že „ak chcete urobiť AI správne, musíte iterovať s mnohými ľuďmi a často aj na verejných fórach,“ preto spoločnosť Microsoft chcela, aby sa Tay zapojila do veľkej komunity na Twitteri. Pred uvedením na trh spoločnosť Microsoft podrobila Tay testovaniu a dokonca uplatnila to, čo sa spoločnosť dozvedela od svojho iného sociálneho chatbota, spoločnosti Xiaolce v Číne. Uznal, že tím čelí náročným výskumným výzvam na ceste k AI, ale aj vzrušujúcim.

"Systémy umelej inteligencie sú zdrojom pozitívnych aj negatívnych interakcií s ľuďmi," napísal Lee. „V tomto zmysle sú výzvy rovnako spoločenské, ako aj technické. Urobíme všetko pre to, aby sme obmedzili technické zneužitie, ale tiež vieme, že nemôžeme úplne predvídať všetky možné ľudské interaktívne zneužitia bez toho, aby sme sa poučili z chýb. “

Aktualizované 30. 3. 2016 Julianom Chokkattu: Pridané správy o tom, že Microsoft Tay zapla, len aby ju znova vypla.

Aktualizované 25. 3. 2016 Les Shu: Pridané komentáre od viceprezidenta spoločnosti Microsoft Research.

Posledné príspevky

$config[zx-auto] not found$config[zx-overlay] not found