Jednym z najbardziej fascynujących dla nas tematów związanych z AI jest obecnie wdrażanie się nowych użytkowników do tej technologii. Odnoszę jednak wrażanie, że o ile w środowiskach mających pełną świadomość obecnego postępu, nie dyskutuje się już jak wręcz nierealny jest to skok dla naszego gatunku i potrzebie dostosowania się do zmian w celu nie zostawania w tyle za innymi ludźmi, a uwaga skupiona jest przede wszystkim nad zagrożeniami płynącymi ze strony AI, wpływem na nasz gatunek i najbliższymi możliwymi kolejnymi rozwinięciami tej technologii, to o tyle u drugiej grupy osób mających świadomość istnienia AI, często wkrada się mnóstwo sceptycyzmu i próby „umniejszania” możliwościom sztucznej inteligencji. Wyciąganie negatywnych wniosków z użytkowania sztucznej inteligencji wynika często z samych błędów w używaniu tej technologii oraz braku świadomości o granicach możliwości poszczególnych systemów AI. Już sam GPT-3.5 od 4 różnie się fundamentalnie w swoich zakresach możliwości. Jednym z ważniejszych argumentów jest fakt, że bazy danych użyte do treningu modelu ChatGPT-3.5 obejmują informacje zgromadzone do około września 2021 – stycznia 2022 roku, a w przypadku ChatGPT-4 do około kwietnia 2023 roku. Dodatkowo wersja 3.5 nie może korzystać z zasobów w sieci, w przeciwieństwie do wersji 4, która posiada narzędzie umożliwiające jej przeglądanie internetu. Następną ogromną wręcz różnicą jest odczytywanie i generowanie obrazów przez wersję 4, funkcji takiej nie posiada wersja 3.5. Jakie więc są tego głębsze konsekwencje ? Zacznijmy więc od błędów jakie popełniane są rozumieniu poprawnego użytkowania sztucznej inteligencji i przede wszystkim świadomości z posiadających przez nią ograniczeń. Przykład będzie ciekawy, ponieważ pokażemy różnice w funkcjonowaniu pomiędzy tymi wersjami posługując się zadaniem obejmującym podział częstotliwości przy pomocy układów scalonych. 

Zadaniem dla modelu było wybranie optymalnych układów scalonych z rodziny CmOs, w celu realizacji podziału częstotliwości z 56000Hz na 50Hz. Do realizacji tego zadania potrzebna jest nie tylko sama wiedza teoretyczna, ale również dostęp do dokładnych schematów układów scalonych. O ile proponowane rozwiązania przez obie wersje są zazwyczaj poprawne pod względem dobrania odpowiednich wartości dzielenia częstotliwości (chodź w przypadku szczególnie wersji 3.5 i nawet z tym bywa różnie) przez poszczególne układy scalone, to problem się pojawia przy pinach i określonych do nich wyjściach. 

Poprawne rozwiązanie zostało dopiero zaproponowane kiedy ChatGPT-4 sięgnął do zasobów sieciowych i odniósł się do faktycznych schematów poszczególnych modeli układów scalonych, które zaproponował. W przypadku ChatGPT-3,5 jest to nie realne, ponieważ nie ma dostępu do tych schematów. W dodatku w przypadku ChatGPT-4 mamy możliwości samodzielnego nakierowania go w „dobrą stronę”, ponieważ schematy układów scalonych zaproponowanych w rozwiązaniu zadania możemy załączyć na czacie w celu sprawdzenia poprawności wykonanego planu podziału.

Co ciekawe ChatGPT-3,5 będzie proponował rozwiązanie zadania, lecz po sprawdzeniu poprawności okazuje się, że „coś tu nie pasuje” względem tego co widzimy w schematach układów scalonych. Następnie pada w końcu polecenie do odwołania się do schematów i dopiero wtedy model odpowiada, że niestety ale nie ma dostępu do tego typu zasobów, oczywiście cała złość skierowania jest wtedy w stosunku do sztucznej inteligencji, ale czy na pewno to tylko jej wina za tą stratę czasu ? 

Jest to przykład fundamentalnego błędu w kontekście podejścia do pracy z sztuczną inteligencją. Użytkownicy przede wszystkim oczekują często „cudu”, zadają AI bardzo uproszczone polecenia dla złożonych zadań wymagających wielu szczegółów, po czym otrzymując niezadowalająca odpowiedź szybko się zniechęcają i krytykują obecne możliwości modeli. Jest to związane przede wszystkim z bardzo wysokimi oczekiwaniami i wręcz nastawieniu, że przecież skoro sztuczna inteligencja jest czymś tak niesamowitym to i czyta pewnie nam w myślach albo przynajmniej wszystkiego się sama domyśli. Prawda jest zupełnie inna, należy mieć na uwadzę, że sztuczna inteligencja jest wzorowana przede wszystkim na ludzkim mózgu, nie będąc aktualnie na jeszcze jego poziomie a jedynie posiadając o wiele większe zasoby wiedzy niż pojedynczy człowiek. Do użytkowania szczególnie modeli takich jak ChatGPT powinniśmy podchodzić więc jak do rozmowy z żywym człowiek, w końcu jedną z głównych cech tego modelu jest imitowanie rozmowy z przedstawicielem naszego gatunku. W przedstawionym przykładzie o układach scalonych, użytkownik przede wszystkim na początku powinien się upewnić, że ChatGPT ma możliwości poprawnego wykonania zadania i zapytać o to wprost. Oszczędziło by to sporo czasu, a także nerwów. Także w realnym życiu opieramy się przede wszystkim na jakości komunikacji z innym ludźmi w celu realizacji określonych zadań, czym jaśniej precyzujemy nasze założenia i lepiej je wytłumaczymy innemu człowiekowi tym istnieje większa szansa na powodzenie i unikanie błędów. Należy również pamiętać przede wszystkim, że skoro sztuczna inteligencja obecnie nie jest jeszcze na poziomie możliwości ludzkiego umysłu to jak można oczekiwać od niej, że się nie myli ? Najwybitniejsze umysły naszego gatunku potrafiły się mylić wręcz spektakularnie, na przełomie dziewiętnastego i dwudziestego wieku panowało przekonanie wśród wielu uczonych, że podstawowe zasady fizyki zostały już odkryte, a przyszłe badania będą się skupiać na udoskonalaniu i rozszerzaniu istniejących teorii, co skutkowało zapisaniem się w historii słów „Fizyka zostanie ukończona za pół roku.. Mimo to, niedługo potem, nadejście teorii kwantowej i teorii względności udowodniło, że dziedzina fizyki wciąż kryje w sobie obfitość nieodkrytych tajemnic i obecnie nie jest nawet blisko odkrycia wszystkich praw jakie rządzą naszym światem.

Niech praca z sztuczną inteligencją będzie przede wszystkim dla nas przygodą i odkrywaniem możliwości tego sztucznego „umysłu”, a na pewno takie nastawienie poskutkuje odkrywaniem niezliczonych nowych możliwości i przyspieszeniem wykonywania wielu czynności. Jedne z najbardziej zabawnych słów o pracy z AI, jakie usłyszałem dotychczas sugerowały byciem miłym dla AI, ponieważ może wtedy nas oszczędzi jak już przejmie władzę nad światem, więc pół żartem, pół serio, ale może warto to rozważyć.