ROMAN MŁODKOWSKI, BIZNES24: My przenosimy się teraz w nieco inną część rzeczywistości. W kierunku świata cyfrowego. Chociaż tak sobie pomyślałem, że być może sztuczna inteligencja mogłaby trochę pomóc ogarnąć system kaucyjny.
Łączymy się z Michałem Chodakowskim, prezesem Silver Bullet Solutions – firmy, która zajmuje się wdrażaniem w firmach, które są tym zainteresowane, rozwiązań sztucznej inteligencji. Witam bardzo serdecznie.
MICHAŁ CHODAKOWSKI, SILVER BULLET SOLUTIONS: Witam bardzo serdecznie.
TO JEST AUTOMATYCZNA TRANSKRYPCJA ROZMOWY PRZEPROWADZONEJ
NA ANTENIE TELEWIZJI BIZNES24
RM: Pretekstem do naszej rozmowy jest wielka konkurencja – wyścig między Microsoftem a Googlem na sztuczne inteligencje: ChatGPT kontra Google Bard. Z oboma możemy teraz w pewnym sensie porozmawiać przy okazji robienia rzeczy, którą od dawna robiliśmy bez sztucznej inteligencji, czyli wyszukiwania informacji w internecie. I proszę mi powiedzieć tak szczerze… to one coś zmieniają w tej podstawowej, najbardziej powszechnie wykorzystywanej funkcji, jaką jest wyszukiwanie?
MC: No tak, zmieniają bardzo dużo. Dlatego, że różnica między tym, z czym mieliśmy do czynienia od czasu, kiedy Google w ogóle udostępnił wyszukiwarki, (to 25 lat) a tym, co się dzieje w tej chwili to jest taka, że to są systemy generatywne. Czyli one tworzą odpowiedź na pytanie, a nie tylko odnajdują informację w internecie, która może być użyteczna lub nie.
RM: Bo do tej pory odnajdywały na takiej zasadzie, że pojawiały się słowa podobne, czy słowa takie jak te, których my użyliśmy w zapytaniu? Prawda?
CZYTAJ TEŻ: GOOGLE BARD JUŻ PO POLSKU
MC: To była prawda do pewnego momentu. Już od pewnego czasu Google stosuje również tzw. wyszukiwanie semantyczne. Co w największym uproszczeniu oznacza, że próbuje zrozumieć, co jest treścią zapytania, tak jak to rozumie człowiek i odnaleźć adekwatne strony nawet, jeżeli w ich treści użyto innych słów. Natomiast to nie na tym polega różnica między tym, co się wydarzyło w momencie wprowadzenia ChatGPT, a teraz się pojawił Bard – Google próbuje nadgonić stracony czas.
RM: To, na czym ta różnica polega?
MC: No właśnie. Różnica polega na tym, że po raz pierwszy i to chyba po raz pierwszy w historii ludzkości, pojawiło się coś – maszyna, która umie w sposób logiczny formułować zdania, umie odpowiadać na zadane pytania. I więcej: umie robić coś takiego, co się nazywa trzymaniem kontekstu. To znaczy, jeśli rozmawiamy, to oczywiście staram się odpowiadać na pańskie pytania, ale pamiętam, o co zapytał mnie Pan przed trzydziestoma sekundami i staram się, aby ta odpowiedź właśnie trzymała kontekst, żebyśmy prowadzili spójną rozmowę. Zarówno ChatGPT jak i Bard to potrafią. Dotychczas było to bardzo trudne.
RM: Jasne. Próbowałem użyć, żeby zdobyć pewne informacje jednego z tych narzędzi i ponieważ to, którego używałem, wskazywało źródła, udało mi się odkryć ze smutkiem, że popełniło typowy błąd początkującego praktykanta w redakcji. Tzn. znalazło fragment zdania, który wyglądał jak pasujący do zapytania i podał mi go, jako odpowiedź, nie zważając na to, co było przed przecinkiem i od początku akapitu, dając mi de facto odpowiedź zupełnie błędną. No, więc zastanawiam się, czy te narzędzia, które otrzymaliśmy, czy one rzeczywiście rozumieją i tworzą odpowiedź, czy one tylko wykorzystują algorytmy prawdopodobieństwa pojawiających się słów, ewentualnie porównują jakieś fragmenty i tak naprawdę informacje, które mogą podać, mogą równie dobrze być nieprawdziwe?
MC: Z największą przykrością stwierdzam, że ma Pan rację. Dotknął Pan bardzo, bardzo ważnego problemu. Rzeczywiście, rozwiązania, z którymi mamy do czynienia, pomimo że są przedstawiane, jako sztuczna inteligencja, a inteligencja pewnie nam się kojarzy z logiką, to to, są rozwiązania, które głównie opierają się na statystyce.
Czyli one starają się wygenerować taką odpowiedź, jaka wydaje się najbardziej prawdopodobna na podstawie ogromnej ilości zgromadzonych tekstów, które były użyte do wytrenowania modelu. I w związku z tym może być nawet dużo gorzej niż w przykładzie, który był pan łaskaw przywołać. Dlatego, że te systemy i to mi się zdarzało wielokrotnie (i to niestety oba systemy popełniają ten sam błąd), są w stanie generować odpowiedzi, które są po prostu niezgodne z prawdą.
MC: To się nazywa halu-cy-no-wanie? Jest jakieś takie słowo, które to określa.
MC: Jak ja powiem nieprawdę to pan powie, że kłamię. Jak komputer to zrobi, to on halucynacje. Takie eleganckie stwierdzenie.
RM: Jesteśmy uprzejmi. Nie wiadomo, do czego nas ta sztuczna inteligencja zaprowadzi, to lepiej jej nie podpadać… Ale mówiąc zupełnie poważnie: mimo to, mimo tych słabości rozumiem, że w zastosowaniach biznesowych może z tego wyniknąć korzyść? Tak jak ja to rozumiem, największa z tego, że jednak do jakiegoś stopnia kontrolowany przeze mnie zbiór nieuporządkowanych danych może zostać uporządkowany. Może w nim zostać znaleziona jakaś tendencja, coś, co charakteryzuje cały zestaw danych. Rozumiem, że to są rzeczy, które w realnym świecie biznesowym mogą nam się naprawdę przydawać, oszczędzając czasu analitykom na przykład.
MC: Tak, ale mimochodem przeszedł pan do troszeczkę innego tematu. To znaczy ChatGPT, a teraz również Bard to są tematy, które są rzeczywiście na ustach wszystkich. I to są oczywiście systemy sztucznej inteligencji, natomiast sztuczna inteligencja to dużo więcej. I zastosowania, o jakich pan wspominał, to znaczy do głębokiej analizy danych, do przeszukiwania zbiorów danych, do wyszukiwań, wynajdywania pewnych trendów, pewnych korelacji, nieoczywistych na pierwszy rzut oka, służą inne systemy, które również oparte są o machine learning, ale nie mamy już do czynienia z dużymi modelami językowymi, tylko po prostu z innymi modelami danych, które służyły do wytrenowania sieci neuronowej.
Natomiast gdyby Pan zapytał, czy w takim razie to, o czym mówimy – modele właśnie oparte o duże modele języka mają jakieś zastosowanie biznesowe, to będę musiał udzielić bardzo ostrożnej odpowiedzi.
To znaczy: tak, ale trzeba uważać. Dlatego, że trzeba stosować różnego rodzaju techniki, które służą do tego, aby właśnie uniknąć mówienia nieprawdy. W firmie na przykład pracujemy w tej chwili nad systemem, który służy do przeszukiwania dużych zbiorów tekstowych w takim trybie chyba bardziej naturalnym dla człowieka niż to, co oferuje Google od 25 lat. Mianowicie w trybie, w którym użytkownik zadaje pytanie. Jeśli pytanie jest nieścisłe, to system go dopytuje. Dopytuje go, no i do tego, żeby go dopytał używamy oczywiście modelu generatywnego. Natomiast sama odpowiedź, kiedy wskutek tych pytań pytanie już się stało ścisłe, jest wyłącznie cytatem. Ona nie może być tworzona przez model generatywny dlatego, że właśnie te modele mają takie ograniczenia.
Inwestujesz? Notowania na żywo, opinie analityków i wszystko, co ważne dla Twojego portfela!
Telewizja dostępna w sieciach kablowych, na platformach satelitarnych, oraz w Internecie.
Informacje dla tych, dla których pieniądze się liczą- przez cały dzień w telewizji BIZNES24
Tylko 36 groszy dziennie za dostęp przez www i 72 grosze dziennie za dostęp do aplikacji i VOD (przy rocznym abonamencie)
Sprawdź na BIZNES24.TV