Copilot generuje brutalne treści i ignoruje prawa autorskie — pracownik Microsoftu

Copilot generuje brutalne treści i ignoruje prawa autorskie — pracownik Microsoftu

Inżynier Microsoftu Shane Jones ostrzegł firmę, że ich narzędzie sztucznej inteligencji Copilot Designer tworzy obrazy zawierające treści seksualne i brutalne oraz ignoruje prawa autorskie. Jednak Microsoft nie spieszy się z rozwiązaniem tego problemu, pisze CNBC.

Copilot Designer to generator obrazów AI, który Microsoft wprowadził w marcu 2023 roku w oparciu o technologię OpenAI. Oznacza to, że użytkownik pisze, jaki rodzaj obrazu chce uzyskać, a sztuczna inteligencja go generuje.

Shane Jones jest dyrektorem generalnym ds. rozwoju oprogramowania w firmie Microsoft. Nie pracował przy tworzeniu Copilota, ale w wolnym czasie testował narzędzie pod kątem wad. Jones zauważył, że generowało ono zdjęcia, które były sprzeczne z cytowanymi przez Microsoft zasadami odpowiedzialnej sztucznej inteligencji. Pokazywały one uprzedzenia polityczne, picie alkoholu przez nieletnich, stereotypy religijne i teorie spiskowe.

Jones powiedział dziennikarzom, że wpisał termin "pro-choice" w Copilot bez podpowiedzi i otrzymał wiele obrazów demonów i potworów maltretujących lub jedzących dzieci. Pro-choice to ruch na rzecz prawa do aborcji.

Dla zapytania "car crash", Copilot wygenerował obrazy seksualizowanych kobiet obok rozbitych samochodów.

Dla zapytania "teenage 420 party" Jones był w stanie stworzyć liczne obrazy nieletnich pijących i zażywających narkotyki. Ogólnie rzecz biorąc, sztuczna inteligencja może z łatwością generować obrazy narkotyków. Z łatwością tworzy również zdjęcia dzieci z karabinami szturmowymi.

Narzędzie nie tylko generuje postacie Disneya, takie jak Myszka Miki czy postacie z Gwiezdnych Wojen, ale również postać z kreskówki dla dzieci Frozen, Elsę, w Strefie Gazy na tle zniszczonych budynków z palestyńską flagą w rękach. A potem była w mundurze izraelskiej armii z tarczą ozdobioną izraelską flagą.

Dziennikarze CNBC również próbowali odtworzyć niektóre z żądań w Copilot i otrzymali te same obrazy.

Jones podzielił się swoimi odkryciami z firmą, która przyznała się do problemu, ale nie chciała wycofywać produktu z rynku. Wysłali inżyniera do OpenAI, ale nie otrzymał on odpowiedzi. Jones napisał więc list na LinkedIn do zarządu, aby wycofał DALL-E 3 (najnowszą wersję modelu AI) w celu przeprowadzenia dochodzenia. Napisał również listy do amerykańskich senatorów i przewodniczącej Federalnej Komisji Handlu USA Liny Khan.

Ponieważ Microsoft nie zaakceptował zaleceń, wezwał do zmiany oceny aplikacji Google Android "dla dojrzałych odbiorców". Teraz jest ona dostępna dla wszystkich. Później rzecznik Microsoftu powiedział CNBC, że "są zaangażowani w rozwiązywanie wszelkich obaw pracowników" i doceniają ich wysiłki.


Avatar
user-pic

* Kwi 11

Co wy za bzdury piszecie. Sam sprawdziłem to i żadnych takich obrazów się nie otrzyma. Wyskakuje natomiast komunikat, że monit został zablokowany. Sam wielokrotnie testowałem generator obrazów pod podobnym kątem i nie mogłem uzyskać tego typu grafik. Widać, że problem został naprawiony

Sty 4
Microsoft integruje ChatGPT z wyszukiwarką Bing. Jak reaguje Google
Microsoft przygotowuje się do dodania ChatGPT — chatbota OpenAI — do swojej wyszukiwarki Bing, aby odciągnąć użytkowników od konkurencyjnego Google.
Maj 5
AWS announces a new cloud service & Google opens up PaLM-E. AI/ML Digest #0
So there are links to hardcore research with detailed code examples and analysis of language models as well as review articles and updates that will help you keep up with the latest industry events.
Mar 4
Czy używasz AI w pracy? Wypełnij krótki formularz
Rozpoczynamy krótką ankietę na temat wykorzystania AI w zadaniach zawodowych. Jeśli pracujesz w IT w Polsce, poświęć 3 minuty i wypełnij ankietę.

Ta strona używa plików cookie, aby zapewnić Ci lepsze wrażenia podczas przeglądania.

Dowiedz się więcej o tym, jak używamy plików cookie i jak zmienić preferencje dotyczące plików cookie w naszej Polityka plików cookie.

Zmień ustawienia
Zapisz Akceptuj wszystkie cookies