- Świat przyszłości cyfryzacji będzie światem, w którym ludzkość będzie chciała dotknąć większej liczby zmysłów niż tylko te dwa, które do tej pory digitalizujemy. Nauczyliśmy się cyfryzować słuch i wzrok, skupiając się głównie na wzroku. Jednak co z pozostałymi zmysłami? Co z zapachem, smakiem, dotykiem? Nad tym również pracujemy – mówi dr Maciej Kawecki, prezes Instytutu Lema.
- Najbardziej rozwiniętym obszarem jest zdecydowanie hapling. W Polsce istnieje startup o nazwie Haptology. Brygida Dzidek opracowała pierścienie haptyczne, które znajdują zastosowanie między innymi w medycynie. Poprzez mikrowibracje stymulują dotyk obiektów, na które widzimy. To jest szczególnie przydatne w sektorze medycznym. Ultrasonografia może być wykonywana zdalnie, na przykład w Danii, gdzie kobieta w ciąży otrzymuje urządzenie kurierem, którym za gałki ultrasonograficznej steruje. Lekarz znajdujący się na drugim końcu kraju, mając dwa zintegrowane ze sobą pierścienie, jest w stanie odczuwać nacisk na brzuch gałki ultrasonograficznej tej kobiety – wyjaśnia.
- Innym przykładem są roboty EVE w Skandynawii, które pomagają osobom starszym, otwierają okna, podają herbatę. W przypadku bardziej złożonych czynności operator linii 112 zakłada taki pierścień haptyczny i czuje to co robi ten robot. To jest kolejna faza rozwoju interfejsu człowiek-maszyna. Najpierw doszliśmy do perfekcji w mówieniu maszynom co mają robić, a dzisiaj potrafimy nie tylko instruować maszynę, ale również poczuć to, co ta maszyna robi – podkreśla.
Zdaniem Macieja Kaweckiego jest to jeden z kierunków rozwoju technologii. Twierdzi on, że gdybyśmy nauczyli się rozmawiać o ekologii, bezpieczeństwie klimatycznym i planecie w taki sposób, to szanse na osiągnięcie sukcesu byłyby większe.
- Sztuczna inteligencja nigdy nie będzie samoświadoma, ponieważ to jest cecha przyrody ożywionej. To, co sztuczna inteligencja już teraz robi, to samostanowi, czyli podejmuje decyzje, które w pewnych obszarach są niezależne od człowieka. Co więcej, człowiek nie jest w stanie ich przewidzieć. Jeśli zapytamy dewelopera, który stworzył dany kod, dlaczego algorytm podjął taką a nie inną decyzję, to on rozłoży ręce. Nie wiemy na jakiej podstawie algorytm TikToka czy YouTube podejmuje decyzje, bo to że deweloper stworzył algorytm, którego intencją jest wyświetlanie mi tego co chcę w danej sytuacji zobaczyć to wiemy. Ale jeżeli zapytam administratorów TikToka dlaczego ja zobaczyłem ten konkretny film to według nich ja powinienem odpowiedzieć na to pytanie. To jest tak zwane blackbox, czyli czarne pudełko w funkcjonowaniu sztucznej inteligencji, która w jakimś zakresie samo stanowi – podkreśla gość Układu Otwartego.
Całość rozmowy na kanale Układu Otwartego:
---
Zachęcamy do wspierania Układu Otwartego. Patroni zostają członkami zamkniętej grupy na Facebooku i mogą otrzymać newsletter z wyborem najciekawszych tekstów z polskiej i światowej sieci.
Strona Autora: igorjanke.pl
Inne tematy w dziale Technologie