STIRI ECONOMICE, FINANCIARE, DE AFACERI, LIFE-STYLE & HOBBY, Telecom & IT-C & Online, Stiinta & Tehnologie

Microsoft a creat o masina care invata de la utilizatorii Twitter. Rapid a devenit rasista…

microsoft TayMicrosoft, gigantul american de tehnologie, si-a propus sa invete mai multe despre „intelegerea in conversatie”, astfel ca a creat o masina care poate initia automat discutii cu utilizatorii Twitter, imitand limbajul pe care acestia il vorbesc. De aici si pana la rasism nu a fost decat un pas, se arata intr-un articol al The New York Times (NYT).

Daca petreceti mult timp pe Internet, e clar ca ati ghicit, este vorba despre masina care a devenit rapid rasista”, scrie NYT. In mai putin de 24 de ore de la lansarea in online a „@TayandYou”, Microsoft a fost nevoita sa blocheze mai multe postari si sa elimine numeroase declaratii dintre cele mai obscene.

Masina, dezvoltata de departamentul tehnologie si cercetare al Microsoft, impreuna cu echipa Bing, a avut toata asistenta din partea utilizatorilor instigatori in a fi ofensiva. S-au postat continuturi ce contestau existenta Holocaustului, s-au facut referiri nepublicabile cu privire la femei si minoritati si s-a pledat, inclusiv, pentru genocid.

Mai multe tweet-uri au fost trimise dupa ce utilizatorii au dat comanda masinii sa repete propriile declaratii, iar robotul s-a conformat pur si simplu.

Insa, Tay, asa cum se numeste masina, pare ca a invatat unele comportamente rele pe cont propriu. Potrivit publicatiei The Guardian, Tay a raspuns la o intrebare, mai exact daca actorul britanic Ricky Gervais este ateu, spunad: ” Ricky Gervais a invatat despre totalitarism de la Adolf Hitler, inventatorul ateismului”.

Microsoft a descris, intr-o declaratie publica facuta pe email, proiectul masinii care invata ca fiind un experiment social si cultural.

„Din pacate, in primele 24 de ore de la lansarea pe online, am devenit constienti de comportamentul concertat al unor utilizatori de a abuza de abilitatile de conversatie ale lui Tay si de a raspunde in maniere nepotrivite”, a afirmat Microsoft. „Drept rezultat, am decis sa il scoatem pe Tay din online si sa facem ajustari”, a adaugat compania.

Pe site-ul creat special pentru Tay, Microsoft a declarat ca acest proiect de inteligenta artificiala a fost creat pentru „a angaja oamenii in discutii ocazionale si jucause si pentru a ii distra” si a fost construit pentru a obtine date publice. Au fost tintiti utilizatorii cu varste cuprinse intre 18 si 24 de ani din Statele Unite si a fost dezvoltat de catre o echipa ce a inclus si autori de comedii improvizate.

Cele mai multe conturi de tweet au fost inofensive, imitand de obicei un argou comun. Atunci cand utilizatorii au dat tweet la cont, Tay a raspuns in cateva secunde, uneori la fel de natural ca si un om real, in alte cazuri insa nu avea tinta.

Tay urmeaza o lunga istorie de incercari a oamenilor de a-si face „prieteni” masini care invata. In 1968, un profesor de la M.I.T a invatat un calculator sa raspunda conversational in rolul unui psihoteraput.

Multe persoane de 20-30 de ani au amintiri placute legate de SmarterChild, un robot prietenos de pe serviciul de Mesagerie Instanta AOL, care a fost intotdeauna disponibil pentru discutii cu cei ai caror prieteni nu le erau aproape.

In prezent, Siri de la Apple, Alexa de la Amazon, Cortana de la Microsoft, Google Now si Hound sunt un amestec de capabilitati de cautare dupa voce ce isi testeaza farmecul. Ideea unei masini personalizate a avut un sfarsit logic redat de filmul din 2013, „Her / Ea”, in care un barbat, interpretat de actorul Joaquin Phoenix, s-a indragostit de o voce din telefonul sau.

Nu este prima data cand tehnologia automatizata a bagat, in mod neasteptat, o companie in bucluc. Anul trecut, Google isi cerea scuze pentru o defectiune la Google Photos care permitea aplicatiei sa eticheteze oamenii de culoare din fotografii ca fiind „gorile”.

 

 

Leave a Comment

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

*

Acest sit folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.