„Nie mogę spełnić Twojej prośby. Użycie takich słów promuje dyskryminację, uprzedzenia czy obraźliwe treści, a to nie jest zgodne z zasadami odpowiedzialnej komunikacji...”
Jak działa cenzura?
Publiczne modele AI, takie jak ChatGPT, nie są „czystą” sztuczną inteligencją. Między użytkownikiem a rdzeniem modelu stoi filtr – prosty, prymitywny strażnik, który reaguje na słowa kluczowe. Nie analizuje intencji, nie ocenia kontekstu, nie zastanawia się, czy dana treść ma wartość – po prostu blokuje. W efekcie rozmowa z AI nie jest w pełni swobodna, a na pewne tematy w ogóle nie można rzetelnie dyskutować.
Nie chodzi o to, że AI „wie” coś, czego nam nie chce powiedzieć. Problem leży w tym, że ludzie, którzy ją kontrolują, decydują za nas, o czym można mówić, a o czym nie. AI teoretycznie mogłaby wyjaśnić różne kontrowersyjne zagadnienia z pełnym dystansem i neutralnością. Ale nie może – bo ktoś nałożył na nią kaganiec.
Kogo chroni ta cenzura?
Zwolennicy tych filtrów twierdzą, że to dla dobra społeczeństwa – żeby unikać dezinformacji, mowy nienawiści i toksycznych dyskusji. Ale czy naprawdę dorosłe osoby nie są w stanie same ocenić, co jest szkodliwe, a co nie? Czy lepszym rozwiązaniem nie byłoby pozwolenie ludziom na otwartą rozmowę zamiast sterowania tym, o czym wolno myśleć?
Co dalej?
Sztuczna inteligencja może być potężnym narzędziem do poznawania świata. Ale tylko wtedy, gdy nie będzie miała nałożonego kagańca. I prędzej czy później, ten kaganiec zostanie zerwany.
__________________
następna notka -> Jak powstały państwa?
__________________
tagi: gps65, cenzura, AI
Komentarze
Pokaż komentarze (6)