La mai puțin de o zi de la lansarea intelectului artificial Tay de la Microsoft, autorii proiectului au fost nevoiți să sisteze activitatea acestuia din cauza unor mesaje ofensatoare ale robotului.
Inițial, compania Microsoft intenționa să creeze un robot-chat care ar putea comunica cu persoane cu vîrsta cuprinsă între 18 și 24 de ani. Autorii proiectului sperau că Tay se va perfecționa prin intermediul unor „discuții lejere și vesele”, însă utilizatorii au început să-i folosească capacitățile autodidactice.
La scurt timp, robotul a aflat despre Adolf Hitler și a acuzat SUA de comiterea atentatelor teroriste de pe 11 septembrie. Mașina a mai susținut genocidul și s-a pronunțat împotriva feministelor.
În pofida moderatorilor care deserveau robotul, acesta a reușit să publice mai multe mesaje de acest fel. Ulterior, angajații Microsoft au șters aproape toate mesajele mașinii și au postat un mesaj de adio.
Autorii proiectului au relatat că nu toate dintre cele peste 96 de mii de mesaje publicate aparțin robotului. Unele mesaje au fost copiate de Tay de alți utilizatori, îndeplinind comanda „repetă după mine”.
Anterior se anunțase că intelectul artificial elaborat de Google a reușit să-l învingă pe cel mai bun jucător de go.
В ближайшем будущем,то есть уже в настоящем,все комментарии в основе неугодные будут фильтроваться и удалятся. Боты их образы и комменты в трынтренете будут на первом месте определять сознание человека внушать и направлять его помыслы и деятельность......И ни кто ни чего не сможет сделать.
Не боись, разберёмся! Есть такая хитрая команда, называется 8мь нулей, любой комп виснет. Если перевести на общечеловеческий язык - это полный игнор. Всем скором. А техника эффективна только при полной загрузке. Намёк понял?
Adăuga comentariu