Zalecana, 2024

Wybór redaktorów

Microsoft "bardzo przepraszam" za Tay Chatbota, przywróci go, gdy "luka w zabezpieczeniach" zostanie naprawiona

Tay AI | Народная Chatbot

Tay AI | Народная Chatbot

Spisu treści:

Anonim

Kierownik Microsoftu powiedział w piątek, że firma "bardzo żałuje" za "niezamierzoną ofensywę i krzywdę". tweetuje chatbota firmy Tay, który został dostarczony na początku tego tygodnia.

"Tay jest teraz offline i postaramy się przywrócić Taya tylko wtedy, gdy jesteśmy pewni, że możemy lepiej przewidzieć złośliwe zamiary, które kłócą się z naszymi zasadami i wartościami," Peter Lee, wiceprezes firmy odpowiedzialny za Microsoft Research, napisał w poście na blogu.

Chociaż to odzwierciedla wiadomość, którą Microsoft przekazał wcześniej, Lee próbował pokazać, jak Tay nie został po prostu uwolniony do Internetu bez przygotowania. Tay był następcą podobnego microsoftowego Microsoftu, znanego jako XiaoIce, który jest już "zachwycony" 40 milionami ludzi w Chinach, wyjaśnił Lee.

[Więcej informacji: najlepsze serwisy telewizyjne]

"Wspaniałe wrażenia z XiaoIce skłonił nas do zastanowienia: czy taka sztuczna inteligencja będzie tak samo urzekająca w zupełnie innym środowisku kulturowym? ", napisał Lee. "Tay-chatbot stworzony dla 18- do 24-latków w USA w celach rozrywkowych - to nasza pierwsza próba odpowiedzi na to pytanie."

Dlaczego to ma znaczenie: odkrycie przez Lee, że Microsoft wydał już Chatbot, z którego korzysta 40 milionów Chińczyków z uprzejmością, sprawia, że ​​upada Tay jeszcze bardziej upokarza świat zachodni. Microsoft i Lee są wyraźnie zawstydzeni, ale trudno jest stwierdzić, czy wstydzą się swojej porażki, czy publiczności, która nadużywała algorytmu Taya. Być może jest tu lekcja: konstrukcje społeczne muszą być rozpatrywane pod kątem społecznych słabości w taki sam sposób, jak oprogramowanie musi być konstruowane z myślą o lukach w zabezpieczeniach.

Tylko jeden z dziwnych tweetów wydanych przez chatbota Taya od Microsoftu <.

Zmęczona przeszłość Tima

Lee napisała, że ​​Tay został opracowany z wbudowanym filtrem i został przetestowany z "różnymi" grupami użytkowników. "Testowaliśmy stres Tay'a w różnych warunkach, szczególnie po to, aby interakcja z Tay była pozytywnym doświadczeniem" - napisał Lee.

Platformy Taya obejmowały Qik i Twitter, a ta ostatnia platforma stała się prawdziwym testem dojrzałości Taya. W ciągu 24 godzin od pojawienia się w Internecie Lee napisał, że Tay został poddany "skoordynowanemu atakowi ze strony podzbioru ludzi".

"Mimo że przygotowaliśmy się na wiele rodzajów nadużyć systemu, dokonaliśmy krytycznego przeoczenia dla ten specyficzny atak ", napisał Lee. "W rezultacie, Tay napisał na Twitterze szalenie niestosowne i naganne słowa i obrazy. Ponosimy pełną odpowiedzialność za niedostrzeganie tej możliwości z wyprzedzeniem. "

Lee nie powiedział, jak atak zadziałał, konkretnie, ale wielu sądzi, że prosząc bota Tima, aby" powtórzył za mną ", Tay nie tylko papugowałby wyrażenie, ale także "nauczyć się" go i włączyć do swojego słownictwa.

Lee napisał, że Microsoft widzi Tay'a jako wysiłek badawczy, i że systemy AI zasilają zarówno pozytywne negatywne interakcje , jak i z ludźmi. Problem polega oczywiście na tym, w jaki sposób Microsoft ponownie przedstawi Taya publicznie, z ryzykiem, że ta sama luka lub inna, może być użyta do obrażenia innych.

"Aby zrobić sztuczną inteligencję, trzeba powtarzać wiele osób i często na forach publicznych" - napisał Lee. "Musimy wchodzić w każdy z nich z wielką ostrożnością i ostatecznie uczyć się i ulepszać, krok po kroku, i robić to bez obrażania ludzi w tym procesie."

A teraz, Microsoft wydaje się nie mieć gotowej odpowiedzi.

Top