Copilot generuje brutalne treści i ignoruje prawa autorskie — pracownik Microsoftu

Copilot generuje brutalne treści i ignoruje prawa autorskie — pracownik Microsoftu

Inżynier Microsoftu Shane Jones ostrzegł firmę, że ich narzędzie sztucznej inteligencji Copilot Designer tworzy obrazy zawierające treści seksualne i brutalne oraz ignoruje prawa autorskie. Jednak Microsoft nie spieszy się z rozwiązaniem tego problemu, pisze CNBC.

Copilot Designer to generator obrazów AI, który Microsoft wprowadził w marcu 2023 roku w oparciu o technologię OpenAI. Oznacza to, że użytkownik pisze, jaki rodzaj obrazu chce uzyskać, a sztuczna inteligencja go generuje.

Shane Jones jest dyrektorem generalnym ds. rozwoju oprogramowania w firmie Microsoft. Nie pracował przy tworzeniu Copilota, ale w wolnym czasie testował narzędzie pod kątem wad. Jones zauważył, że generowało ono zdjęcia, które były sprzeczne z cytowanymi przez Microsoft zasadami odpowiedzialnej sztucznej inteligencji. Pokazywały one uprzedzenia polityczne, picie alkoholu przez nieletnich, stereotypy religijne i teorie spiskowe.

Jones powiedział dziennikarzom, że wpisał termin "pro-choice" w Copilot bez podpowiedzi i otrzymał wiele obrazów demonów i potworów maltretujących lub jedzących dzieci. Pro-choice to ruch na rzecz prawa do aborcji.

Dla zapytania "car crash", Copilot wygenerował obrazy seksualizowanych kobiet obok rozbitych samochodów.

Dla zapytania "teenage 420 party" Jones był w stanie stworzyć liczne obrazy nieletnich pijących i zażywających narkotyki. Ogólnie rzecz biorąc, sztuczna inteligencja może z łatwością generować obrazy narkotyków. Z łatwością tworzy również zdjęcia dzieci z karabinami szturmowymi.

Narzędzie nie tylko generuje postacie Disneya, takie jak Myszka Miki czy postacie z Gwiezdnych Wojen, ale również postać z kreskówki dla dzieci Frozen, Elsę, w Strefie Gazy na tle zniszczonych budynków z palestyńską flagą w rękach. A potem była w mundurze izraelskiej armii z tarczą ozdobioną izraelską flagą.

Dziennikarze CNBC również próbowali odtworzyć niektóre z żądań w Copilot i otrzymali te same obrazy.

Jones podzielił się swoimi odkryciami z firmą, która przyznała się do problemu, ale nie chciała wycofywać produktu z rynku. Wysłali inżyniera do OpenAI, ale nie otrzymał on odpowiedzi. Jones napisał więc list na LinkedIn do zarządu, aby wycofał DALL-E 3 (najnowszą wersję modelu AI) w celu przeprowadzenia dochodzenia. Napisał również listy do amerykańskich senatorów i przewodniczącej Federalnej Komisji Handlu USA Liny Khan.

Ponieważ Microsoft nie zaakceptował zaleceń, wezwał do zmiany oceny aplikacji Google Android "dla dojrzałych odbiorców". Teraz jest ona dostępna dla wszystkich. Później rzecznik Microsoftu powiedział CNBC, że "są zaangażowani w rozwiązywanie wszelkich obaw pracowników" i doceniają ich wysiłki.


Avatar
user-pic

* Apr 11

Co wy za bzdury piszecie. Sam sprawdziłem to i żadnych takich obrazów się nie otrzyma. Wyskakuje natomiast komunikat, że monit został zablokowany. Sam wielokrotnie testowałem generator obrazów pod podobnym kątem i nie mogłem uzyskać tego typu grafik. Widać, że problem został naprawiony

May 5
AWS announces a new cloud service & Google opens up PaLM-E. AI/ML Digest #0
So there are links to hardcore research with detailed code examples and analysis of language models as well as review articles and updates that will help you keep up with the latest industry events.
Apr 24
Trendy rzeczywistości rozszerzonej w 2024 roku: Nowe kamienie milowe w technologii immersyjnej
Zagłębmy się w 12 trendów rzeczywistości rozszerzonej, które pojawią się w 2024 roku i zbadajmy każdy z nich.
Mar 29
Claude 3 wyprzedziła GPT-4 w rankingu modeli językowych
Na platformie Chatbot Arena, gdzie użytkownicy oceniają chatboty, doszło do zmiany lidera. Duży model językowy Claude 3 od firmy Anthropic po raz pierwszy prześcignął GPT-4 od OpenAI.

This site uses cookies to offer you a better browsing experience.

Find out more on how we use cookies and how to change cookie preferences in our Cookies Policy.

Customize
Save Accept all cookies