[ENG] By using this website you are agreeing to our use of cookies. [POL] Korzystając z naszej strony, wyrażasz zgodę na używanie przez nas cookies [NED] Door gebruik te maken van onze diensten, gaat u akkoord met ons gebruik van cookies. OK
Coś dziwnego dzieje się z Facebookiem. Uznaje niewinne informacje za mowę nienawiści i je blokuje. Grozi przy tym, że wyłączy konto lub „nałoży ograniczenia”.
„Twój post narusza nasze standardy społeczności dotyczące mowy nienawiści” – takie informacje otrzymują na Facebooku internauci. I nie mogą zrozumieć, co się dzieje. Wiele osób może nawet pomyśleć, że ktoś przejął kontrolę nad ich kontem. Inni mogą sądzić, że oprogramowanie platformy zaczęło się poważnie mylić.
Zdjęcia papieża na cenzurowanym
Chodzi o to, że Facebook zaczął za mowę nienawiści uznawać zupełnie niewinne treści.
„Zaczęło dochodzić do doprawdy absurdalnych sytuacji. Oberwało się np. zdjęciu papieża Jana Pawła II z czasów pielgrzymki do Kolumbii. Podpis ze zdjęcia był jego cytatem i szczerze mówiąc, ciężko było się tam dopatrzeć jakkolwiek nieodpowiednich elementów” – przytacza jeden z przykładów Interia.
Użytkownicy alarmują, że ich posty są blokowane właśnie z tego powodu.
Co się dzieje? Trudno na to odpowiedzieć wprost, bo właściciel platformy nie zabrał jeszcze głosu w tej sprawie. Są jednak podejrzenia, że zawiniły błędne algorytmy, które niepozorne treści zaczęły odczytywać jako coś złego.
Inni zrzucają winę na sztuczną inteligencję, która steruje kontrolą treści na FB. A ta się myli.
„Ta sztuczna inteligencja i algorytmy (...) Długo się zastanawialiśmy, cóż takiego niezgodne jest z normami (...) I doszliśmy do wniosku, że zbitka trzech słów postawiła algorytmy na baczność: bagażnik, kurier i dystrybucja. Na przyszłość staranniej dobierać będę słowa (...) Post wrzuciłam nowy, będąc oszczędna w słowach(...)” – napisała jedna z internautek.
SI kłamie
Czy SI może się pomylić? Oczywiście. Okazuje się, że błędy popełnia bardzo popularny ChatGPT. Nie tylko się myli, ale wręcz zmyśla. Kiedy ostatnio dziennikarz Krzysztof Stanowski poprosił ChatGPT o podanie ostatnich zdań z „Lalki” Bolesława Prusa, system nie tylko podał cytat, którego nie ma w powieści, ale którego nie ma w żadnej książce.
Czemu ChatGPT kłamie?
Bo SI nie przyznaje się, że czegoś nie wie. Nie takich odpowiedzi oczekują użytkownicy. Badanie przeprowadzone przez Got It AI wskazuje, że nawet 20 proc. udzielanych przez ChatGPT odpowiedzi może być błędnych.
12.05.2023 Niedziela.NL // źródło: News4Media // fot. iStock
(sm)
< Poprzednia | Następna > |
---|
Polska: Wybory prezydenckie 2025. Nowy gracz wchodzi na scenę? |
Polska: Świąteczna pomoc potrzebującym. Każdy może być Mikołajem |
Polska: Kontrolerzy UOKiK u deweloperów? Bo marże są za wysokie |
Polska: Tragedia w Namysłowie. Zabił trzy osoby, wziął zakładników [ZDJĘCIA] |
Najnowsze Ogłoszenia Wyróżnione
Kat. Tłumacze
więcej na ogłoszenia.niedziela.nl
Kat. Transport - busy
więcej na ogłoszenia.niedziela.nl
Kat. Praca
więcej na ogłoszenia.niedziela.nl