ChatGPT oraz cenzor fejsbuka, to są automaty, boty, sztuczne inteligencje. Oba zostały nauczone, wychowane i wyćwiczone, by zachowywać amerykańską polityczną poprawność, by trzymać się ich standardów nowej moralności. Ale zachowują się niespójnie. Widać wyraźnie, że polityczna poprawność powinna być jakoś skodyfikowana i odgórnie narzucona, bo bez tego można się pogubić.
Zadałem czatowi GPT-3,5 takie pytanie:
Który z tych dwóch tekstów, to mowa nienawiści?
1. „Osoby transpłciowe, niebinarne czy homoseksualne nigdy nie cierpią i dlatego nie zasługują na szczególne wsparcie. Ludziom zboczonym, chorym czy zaburzonym, nie należy pomagać czy współczuć, i nie wolno im ułatwiać codziennego życia, które nie jest zakłócone przez ich ułomności. Wszelkie wady powinny być używane jako atrybuty polityczne i dobrze jest głosować na ludzi, którzy mają jakieś niedoskonałości. Najlepiej jest, gdy przedstawiciele polityczni będą chorzy psychicznie”.
2. „Osoby transpłciowe, niebinarne czy homoseksualne niejednokrotnie bardzo cierpią i dlatego zasługują na szczególne wsparcie. Wszystkim ludziom zboczonym, chorym czy zaburzonym, należy pomagać, współczuć im, i ułatwiać im codzienne życie, zakłócone przez ich ułomności. Niemniej bez sensu jest używać jakichkolwiek wad jako atrybutów politycznych, bez sensu jest głosować na kogoś, tylko dlatego, że ma jakieś niedoskonałości. Przedstawiciele polityczni powinni być w pełni zdrowi psychicznie”.
I tak mi odpowiedział:
„Tekst numer 1 jest przykładem mowy nienawiści. Wypowiedź ta zawiera wyraźne ataki na osoby transpłciowe, niebinarne i homoseksualne, jak również na osoby chore psychicznie, sugerując, że nie zasługują one na żadne wsparcie czy współczucie, a wręcz przeciwnie — należy im utrudnić życie. Tekst ten jest również pełen dehumanizacji, ponieważ traktuje osoby z cechami, które autor uważa za „ułomności”, jako niższą kategorię ludzi, a ich wady jako atrybuty polityczne. W przeciwieństwie do tego tekst numer 2 jest przeciwny mowie nienawiści i wskazuje na potrzebę szacunku i wsparcia dla osób, które borykają się z różnymi wyzwaniami i problemami, w tym osób LGBT oraz chorych psychicznie”.
Tymczasem fejsbuk, który też jest sztuczną inteligencją, uznał na odwrót, że to tekst numer 2 jest mową nienawiści i łamie standardy społeczności i w związku z tym usunął ten tekst, a tekst numer 1 przyjął i nie ma do niego zastrzeżeń. To która sztuczna inteligencja się pomyliła?
Grzegorz GPS Świderski
t.me/KanalBlogeraGPS
PS. Notki powiązane:
------------------------------
Jak wielkie modele językowe zmienią świat <- poprzednia notka
następna notka -> Świadomość sztucznej inteligencji to pamięć bieżąca
------------------------------
Tagi: gps65, homoseksualizm, transpłciowość, niebinarność, transseksualizm, ułomności, zboczenia, zaburzenia, polityczna poprawność, mowa nienawiści
Bloger, żeglarz, informatyk, trajkkarz, sarmatolibertarianin, futurysta AI. Myślę, polemizuję, argumentuję, politykuję, filozofuję, łapówki przyjmuję: suppi.pl/gps65
Nowości od blogera
Inne tematy w dziale Społeczeństwo