ChatGPT to „nic szczególnie innowacyjnego” - uważa konkurencja
„Nic rewolucyjnego”.
Choć sztuczna inteligencja ChatGPT robi ostatnio furorę w mediach, to nie jest niczym szczególnie innowacyjnym. Tak przynajmniej twierdzi Yann LeCun, naukowiec zatrudniony do badania SI w firmie Meta, odpowiedzialnej choćby za Facebook.
- Jeśli mowa o zastosowanych technikach, ChatGPT nie jest szczególnie innowacyjne - mówił ekspert podczas spotkania z dziennikarzami, cytowany przez serwis Zdnet. - To nic rewolucyjnego, nawet jeśli tak postrzegane jest to na zewnątrz. Całość jest po prostu ładnie opakowana i przygotowana.
LeCun dodał, że podobne rozwiązania powstawały już w przeszłości i z pewnością nie można powiedzieć, że OpenAI - firma odpowiedzialna za algorytmy - jest jedyna w swoim rodzaju.
- OpenAI nie jest szczególnie zaawansowane w porównaniu z innymi laboratoriami - zapewnił. - Mowa nie tylko o Google czy Meta, ale o pół tuzinie startupów, które mają na dobrą sprawę bardzo podobną technologię. Nie chcę powiedzieć, że to coś prostego, ale te rozwiązania nie są tajne i nie stanowią jakiegoś sekretu.
Naukowiec wyjaśnił, że ChatGPT, bazujące na programie GPT-3 od OpenAI, samo składa się z elementów, które przez ostatnie lata powstały w wielu różnych miejscach. Kluczowe jest właśnie złożenie ich w całość oraz zaoferowanie w atrakcyjnym i prostym do użycia pakiecie.
Największe powody do niezadowolenia ma zapewne Google, które w 2017 roku ujawniło sieć neuronową Transformers. Właśnie w oparciu o to rozwiązanie przygotowano liczne „językowe” algorytmy, w tym GPT-3. Do tego dochodzi technika uczenia przy użyciu rankingów przygotowanych przez ludzi, a więc także podejście rodem z działu DeepMind w Google.
- Jest więc cała historia tego typu i projekt na pewno nie narodził się w próżni - podsumował LeCun. Dlaczego więc aplikacje typu ChatGPT nie zostały opublikowane przez Google czy Meta? - Prawda jest taka, że Google i Meta mają dużo do stracenia, jeśli udostępnią systemy, które po prostu coś wymyślają - zażartował naukowiec.
Wstępne efekty takiego podejścia już widać. Serwis technologiczny CNET jako pierwszy postawił na teksty pisane przez sztuczną inteligencję, ale - jak się szybko okazało - te były nie tylko pełne błędów, ale i obfitowały w plagiatowane treści.