- Abyśmy mogli korzystać z modeli, które są 10, a nawet 100 razy większe, potrzebujemy odpowiedniej infrastruktury. Posiadamy niezbędną wiedzę i potencjał intelektualny, aby ją stworzyć, jednak kluczowe jest to, że to wszystko musi na czymś działać – Agnieszka Suchwałko, ekspertka z zakresu analizy danych obrazowych.
- Jeśli weźmiemy dodatkowo pod uwagę GAI, to projekt staje się jeszcze bardziej wymagający, cięższy i rozleglejszy. Na początek musimy przeprowadzić proces treningu GAI, a następnie dostarczyć jej odpowiednie środowisko do funkcjonowania. GAI nie działa w izolacji; wymaga infrastruktury do swojego rozwoju. Obecnie powstają nowe fabryki oraz fizyczne miejsca, gdzie produkowane są niezbędne zasoby. Te zasoby są kluczowe dla sprawnego funkcjonowania systemu, który umożliwi korzystanie z coraz większych i bardziej zaawansowanych modeli sztucznej inteligencji. Jednakże, zauważmy, że zasoby te nie są nieograniczone, a podczas pandemii zasoby te zostały wyczerpane. W międzyczasie opracowano plan, ale budowa nowej fabryki to proces, który wymaga czasu - nie jest to zadanie, które można zrealizować w kilka miesięcy – uważa.
- Oczywiście istnieją przedsiębiorstwa specjalizujące się w dziedzinie komputerów kwantowych, a tutaj otwiera się przestrzeń do potencjalnego rozwoju. Jednakże, należy pamiętać, że nawet w tej dziedzinie istnieją techniczne ograniczenia, które opóźnią cały proces – dodaje.
- Wprowadzenie stukrotnego wzrostu mocy obliczeniowej obecnej sieci w ciągu 18 miesięcy może być oszacowane na miliard dolarów. W bieżącym roku sam Microsoft zainwestował 50 miliardów dolarów w rozbudowę farm obliczeniowych. Dodatkowo, 2 miesiące temu na stronie Microsoftu pojawiło się ogłoszenie o poszukiwaniu fizyków jądrowych do zdalnej pracy. Jest to związane z koniecznością zasilenia tych centrów, co skłoniło ich do poszukiwania ekspertów do pomocy w budowie prywatnej elektrowni jądrowej, mającej zasilać te klastry. Znalezienie rozwiązań wydaje się być stosunkowo łatwe - prof. Andrzej Dragan, Uniwersytet Warszawski.
- Warto zauważyć, że jeśli w ciągu 18 miesięcy uda się osiągnąć stokrotne zwiększenie mocy obliczeniowej potrzebnej do trenowania nowych sieci, a przypomnijmy, że przejście z ChatGPT-3.5 do wersji 4 oznacza dziesięciokrotne zwiększenie liczby parametrów, to ten okres nie wydaje się aż tak długi – zauważa.
- Nie sądzę, aby kwestia infrastruktury była aż tak wielkim problemem dla gigantów technologicznych, którzy równocześnie rozwijają technologie sztucznej inteligencji i potencjalnie komputery kwantowe. Firmy takie jak Microsoft czy IBM angażują się w obie te dziedziny. Chociaż te wysiłki wymagają czasu, warto zauważyć, że firma taka jak OpenAI, działająca od 2015 roku, potrzebowała pewnego czasu, aby osiągnąć swoją obecną pozycję. To wszystko trwa i technologia też stawia opór. Oczywiście, aspekt infrastrukturalny może odgrywać pewną rolę, ale nie mam żadnych wątpliwości, że jeśli istnieje możliwość pokonania tych wyzwań, to właśnie ci, którzy obecnie pracują nad tym projektem, będą w stanie to zrobić – Aleksandra Przegalińska, profesorka Akademii Leona Koźmińskiego.
Czy AI pomoże Polsce w osiągnięciu drugiego skoku cywilizacyjnego? Czy AI pomoże naszej cywilizacji czy ściąga nas w czarną dziurę? Jakie AI ma ograniczenia? Jak AI wpłynie na globalną gospodarkę? Czy należy uregulować AI? Na ile AI wpłynie na Polskę? Całość rozmowy na kanale Układu Otwartego.
---
Zachęcamy do wspierania Układu Otwartego. Patroni zostają członkami zamkniętej grupy na Facebooku i mogą otrzymać newsletter z wyborem najciekawszych tekstów z polskiej i światowej sieci.
Strona Autora: igorjanke.pl
Inne tematy w dziale Technologie