#54

Inez Okulska - Sztuczna Inteligencja w usługach publicznych

W najnowszym odcinku podcastu Stacji IT gościem Łukasza Kobylińskiego była Inez Okulska. Tym razem głównym tematem odcinka była Sztuczna Inteligencja w usługach publicznych. 

Streszczenie odcinka

  1. Przedstawienie Gościa. 
  2. Jakimi projektami zajmujesz się w swoim zespole?
  3. Jakie są wyzwania związane z anonimizacją danych publicznych w kontekście SI?
  4. Jaki jest według Twojej wiedzy zakres wykorzystania Sztucznej Inteligencji w usługach publicznych?
  5. Czy jest to obszar, w którym SI może faktycznie pomóc?
  6. Czy urzędnicy powinni się bać utraty pracy ze względu na SI?
  7. Czy nie narażamy się tutaj na problemy natury prywatności danych, a także etyczne, dotyczące podejmowania decyzji przez modele jako czarne skrzynki?
  8. Gdzie wg Ciebie mogą i powinny być prowadzone prace nad SI w usługach publicznych? W firmach prywatnych, na uczelniach, w specjalizowanych instytutach? Czy tego typu organizacją mają na to przestrzeń i zasoby?

Transkrypcja odcinka

Cześć, witam Was w kolejnym odcinku podcastu „Stacja IT”. Dzisiaj naszym gościem jest Inez Okulska. Naszym tematem będzie sztuczna inteligencja w usługach publicznych i administracji, tam, gdzie wiele dzieje się pod kątem informatyzacji w Polsce. Zastanowimy się, gdzie sztuczna inteligencja pomaga, czy zawsze pomaga, czy czasem stanowi zagrożenie. Zapytamy, co ciekawego Inez robi w swojej pracy, bo realizuje ona bardzo ciekawe projekty związane ze sztuczną inteligencją.

 

Cześć, Inez. Bardzo mi miło gościć cię dzisiaj w naszym podcaście!

Cześć!

Czy mogłabyś na początek powiedzieć parę słów o sobie?

Jestem kierowniczką Zakładu Inżynierii Lingwistycznej Analizy Tekstów w Państwowym Instytucie Badawczym NASK oraz od 1 czerwca dyrektorką Departamentu Innowacji i Technologii w Ministerstwie Cyfryzacji. W NASK-u zajmujemy się bardzo ciekawymi projektami związanymi w pewnej mierze z cyberbezpieczeństwem – wykorzystaniem sztucznej inteligencji do kwestii cyberbezpiecznych, ale pod kątem moderacji treści, wykrywania treści szkodliwych, które obejmują mowę nienawiści, propagowanie przemocy, pornografię dziecięcą, dezinformację. Czytając to, robimy wszystko, żebyście Wy ani Wasze dzieci nie musieli tego czytać. Mamy nadzieję, że dokładamy swoje kamyczki do tego ogródka.

Departament to nowa jednostka. Naszym celem jest umożliwianie rozwoju i innowacji technologii, identyfikowanie blokerów, problemów, rozwiązywanie ich na różnych etapach. Lubię o tym myśleć jako o tworzeniu ekosystemu innowacji. Żeby on istniał i miał się dobrze, ważne są trzy aspekty. Pierwszy to regulacje prawne, bo te blokery najczęściej zaczynają się na tym poziomie. Wystarczy pomyśleć o zamówieniach publicznych, moim marzeniem jest dołożenie kolejnego kamyczka tym razem do tego ogródka, wszystkim nam byłoby lepiej. Druga kwestia to umożliwianie dostępu do technologii polskiej nauce i polskim przedsiębiorcom. Trzecia – szerzenie świadomości. Bo oprócz rozwijania technologii trzeba przygotować na nią użytkowników. Najbardziej widać to przy okazji tematu sztucznej inteligencji: jednym torem idzie rozwój, drugim – świadomość i przygotowanie na nią odbiorów, aby się jej nie bali i właściwie jej używali. W kontekście naszej dzisiejszej rozmowy to temat szczególnie istotny.

Czy dostajecie dodatek za trudne warunki pracy, czyli czytanie takich treści z internetu? Czy rzeczywiście musicie je czytać, czy to jest głównie trenowanie modeli?

Tak, to jest dodatek z funduszu cyberbezpieczeństwa. Osoby w to zaangażowane są doceniane pod tym względem. I powinny być, bo to kawał trudnej roboty. Czy czytamy? W pewnej mierze tak, bo po pierwsze jednak ten element nadzoru jest bardzo ważny. Po drugie – najbliższy mojemu sercu temat – projekt, który właśnie kończymy, dotowany przez NCBiR, a dotyczący wykrywania pornografii dziecięcej w internecie. Oprócz wideo i obrazów, którymi zajmowały się zespoły NASK i Politechniki Warszawskiej, mieliśmy część tekstową, którą prowadziłam. To było wsparcie dla moderatorów, a nie ich całkowite zastąpienie. Temat tak ważki, ale też tak śliski i nieoczywisty. Wiemy, że sztuczna inteligencja nie robi niczego na 100%, a nikt nie chce być jak przy każdym systemie jakiejś dalej posuniętej jurysdykcji tym marginesem błędu. Tu jest podobnie. Z jednej strony chcemy mieć jak najwyższy recall – jak najwięcej wychwyconych szkodliwych treści – ale z drugiej strony nie możemy nikogo niewinnego niesłusznie oskarżać o propagowanie treści, które modelowi się takie wydawały, a takie nie są. To ma być ostateczne narzędzie wsparcia moderatorów, żeby maksymalnie zrównoleglić przeszukiwanie, bo jak wiadomo efekt skali ma znaczenie. A po drugie, żeby maksymalnie skrócić czas ekspozycji moderatora na daną treść. Wyobraźnia ludzka ma swoją czarną stronę. Istnieją takie opowiadania, bardzo plastyczne niestety, zawierające wiele odmian dewiacji. Żeby to określić, w jakiejś mierze trzeba by było wczytać się w daną narrację, bo jednak to jest opowiadanie, ma swoją konstrukcję: wstęp, rozwinięcie. Te wstępy mogą być zupełnie niewinne, ale wydarzają się tam rzeczy, które – jak to się potocznie mówi – trudno odzobaczyć, odusłyszeć i odwyobrazić. Dlatego zależało nam, żeby zrobić narzędzie pozwalające na wykrywanie takich tekstów, zobaczyć, na jakiej podstawie model je wykrył. Ten element wyjaśnialności tej transparencji jest ważny po to, aby nie posądzać niewinnych ludzi o szerzenie treści, których nie szerzą. A po trzecie, żeby skrócić czas wczytywania się w te teksty przez moderatorów. W jakiejś mierze udało nam się to stworzyć.

W rozwiązaniu tym pierwsze sito dotyczy samej erotyki w tekście ogólnie – czy tekst jest erotyczny, czy nie. Oczywiście sama erotyka nie jest nielegalna, nie mamy takiej intencji, by ją usuwać czy flagować. Powinna być dostępna powyżej wiadomego wieku, natomiast sama w sobie może być OK. Później patrzymy, czy tekst jest legalnie erotyczny, czy nie. Pierwsze sito jest na poziomie zdania. Mamy klasyfikator do zdań i predykcję flagi „erotyk” lub „nieerotyk” dla zdań. To sprawia, że potem w aplikacji możemy wizualnie wyróżnić tylko te zdania z tekstu, które są erotyczne. W drugim etapie stosujemy narzędzie stylometryczne StyloMetrix, które ma wiele różnych metryk, w tym m.in. dołączone leksykalne metryki, które są efektem pracy z moderatorami, czyli tzw. ekspertami domenowymi. To są ludzie, którzy musieli X tych tekstów przeczytać, przeanalizować. Wyciągnęliśmy z tego przeróżne słowa, określenia, żeby zobaczyć, które z nich są najbardziej typowe. Nie chodziło wyłącznie o spodziewane kwestie, słownictwo seksualne, bo ono łapane jest właściwie na poziomie zdań samych w sobie, erotycznych lub nie. Natomiast chodziło o elementy kontekstu, które nie są oczywiste. Tego nie publikujemy. Nie zdradzamy słów, które pozwalają na identyfikację tych tekstów, ponieważ nie możemy odkryć swoich narzędzi. Powiem tylko tyle, że jest zestaw naprawdę nieoczywistych słów, jak np. „dziecko”, zestaw oczywistych fetyszy, elementów sceny, przejawiających się z jakichś powodów, co pozwala na szybkie zidentyfikowanie kontekstu.

Mamy podkreślone słowa z konkretnych kategorii, np. rodzina, wiek, szkoła, plus te nasze słowa, i to się nakłada na zdania erotyczne. Wystarczy szybko przeskrolować na kolorowo zaznaczony tekst i zobaczyć, czy zdania erotyczne rzeczywiście takie są. Bo czasami zdanie ma wysoką temperaturę, czyli zostało napisane tak, że można się domyślić, dlaczego klasyfikator potraktował je jako erotykę, ale de facto erotyką nie jest. To pozwala na szybką ocenę. Plus w kontekście kilka słów z etykiet, o które nam chodzi. Od razu widać, czy etykieta jest niewinna i nie ma nic wspólnego z erotyką, czy tam się jednak coś wydarza i można flagować tekst, i iść dalej. Pozwala to ocenić, sklasyfikować, przeanalizować tekst w sposób wybiórczy, nie wchodząc w wiązaną narrację. To jest jeden z przykładów.

Drugi sposób analizy dotyczy sytuacji, w której świeżo opublikowaliśmy zbiór danych otrzymany wcześniej dzięki uprzejmości znanego serwisu Wykop.pl. To dane nietypowe, bo pochodzące z procesu moderacji, niedostępne w internecie, nie można ich żadnym scraperem pozyskać samodzielnie. To są takie wypowiedzi i komentarze, które w procesie moderacji przez ludzkich moderatorów z Wykopu zostały oflagowane jako do usunięcia i usunięte, ale jednak przechowane w bazie na potrzeby projektu. Nas interesował cyberbullyinghate speech itp. Mowa nienawiści jest tu wąskim wyimkiem, chodziło o elementy związane z obrażaniem kogoś, propagowaniem przemocy i nienawiści. Bo na tym też bazuje wspomaganie moderacji na Wykopie, w którym pojawia się 50 tys. treści na dobę. Więc jakkolwiek prężnie działaliby moderatorzy, trochę nie mają szans. Znane były wcześniej przypadki nagonki na nie tyle niewinne osoby, co takie, które padły ofiarą własnej głupoty, a zapłaciły za to bardzo wysoką cenę, wiralując wśród hejterów. Chodzi o to, aby takich sytuacji unikać. Przy okazji udało się te dane pozyskać w celu tworzenia własnych modeli antyhejtu.

Czy intencją tworzenia tych systemów jest wykorzystywanie ich potencjalnie przez moderatorów poszczególnych serwisów? Czy na wyższym poziomie administracyjnym, czy nie jest to jeszcze ustalone, bo na razie jest to projekt badawczy, a tego rodzaju kwestie zostanę określone później? Zaciekawiło mnie to, co powiedziałaś o tym pierwszym projekcie, który dotyczy opowiadań. To jest już konkretny obszar internetu, w którym one się pojawiają.

Tak, oczywiście. Zapomniałam dodać, że jednostką odpowiedzialną za tropienie tego typu treści jest dyżurny – jednostka wewnątrz NASK. W ramach ustawy o krajowym systemie cyberbezpieczeństwa wskazane zostały ośrodki reagujące na incydenty cyberbezpieczeństwa, tzw. CSIRT-y krajowe; NASK jest jednym z trzech CSIRT-ów krajowych, tzw. cywilny. Jego odpowiedzialność polega na tropieniu wysoce nielegalnych treści. Bo o ile na poziomie tekstu legislacja próbuje nadążyć, o tyle samo przechowywanie materiałów typu obraz czy wideo na własnym laptopie skutkuje kajdankami. To nie jest tak, że dowolny badacz może sobie zacząć taki projekt i powiedzieć, że „ja to tylko badania prowadzę, w związku z tym muszę mieć takie treści u siebie”.

Wracając do pytania o to, czy my te treści oglądamy. Badacze, którzy zajmowali się tą częścią obrazu i wideo, spędzili kilka pierwszych miesięcy tego projektu na stworzeniu środowiska izolowanego, żeby oni tych danych w ogóle nie musieli oglądać. Ich oznaczaniem, przygotowywaniem, etykietowaniem zajmowali się już wyłącznie pracownicy Dyżurnetu umocowani prawnie do tego, by takie materiały mieć u siebie na dyskach, przeglądać je, mieć z nimi kontakt. U nas po stronie tekstu było prościej, bo niestety ciągle jeszcze nie ma jednoznacznego zakazu. Natomiast mimo wszystko takie ograniczenie, które narzuciliśmy sobie na początku, było bardzo inspirujące. Często jest tak, że z ograniczeń wynikają kreatywne pomysły. Stąd powstały nasze stylometryczne wektory, które miały pozwalać nam śledzić działanie modelu, otrzymywać feedback dotyczący różnic pomiędzy tekstami w sposób, który w ogóle nie będzie oddawał treści. Jeśli zmienimy tekst na statystyki gramatyczne, to nie widzimy w ogóle treści, jesteśmy wolni od tych okropnych obrazów, a jednocześnie widzimy znaczące różnice pomiędzy kolejnymi próbkami. Widzimy, jakie cechy mają znaczenie, co dzieje się w samym treningu.

Spodziewam się, że w przypadku obrazu takie badania mogą mieć charakter międzynarodowy. Nie jest to zależne od języka. Pewnie prace dotycząca tekstów były bardziej dostosowane do języka polskiego.

Całkowicie były dostosowane do języka polskiego. I na ten moment są wdrożone w system, z którego będą korzystać modele Dyżurnetu. Nie ma teraz możliwości komercjalizacji tego elementu gdziekolwiek indziej w Polsce, ponieważ zajmuje się tym tylko ta jednostka. Aczkolwiek filtr wyuczony na tego typu tekstach, jak np. na Wykopie, mógłby się również przydać, bo niestety, zanim przez moderację zostaną zdjęte różne treści, pojawiają się odmęty. Więc warto dołożyć dodatkowy filtr. Ale jeśli chodzi o cel, to była to głównie współpraca z tą jednostką i chęć usprawnienia tego. To było kilka osób na cały kraj, które miały chronić nas przed tymi treściami. To superważny cel, natomiast trudne wykonanie. Z drugiej strony nie chodzi o to, żeby zatrudnić armię osób i sprawiać, że będzie ona codziennie wypełniać te treści. Pod tym względem automatyzacja naprawdę przywita nas ochoczo.

Przejdźmy do tematu wykorzystania sztucznej inteligencji w usługach publicznych, zarówno państwowych, jak i komercyjnych. Czy wg ciebie takich usług publicznych korzystających z rozwiązań sztucznej inteligencji jest już w tej chwili dużo, czy jesteśmy raczej na początku drogi? Czy sztuczna inteligencja już nam pomaga, czy dopiero trwają prace nad jej popularyzacją?

W swojej pracy mam tendencję do zawężania się do kwestii przetwarzania tekstu. Natomiast obszary zastosowań sztucznej inteligencji są szersze, bo mamy systemy cyberbezpieczeństwa, które chronią takie sieci jak chociażby akademicka – to jest jak najbardziej w interesie dużej części społeczeństwa. Tam pod spodem kryje się kawał matematyki. Aczkolwiek niesztucznej inteligencji rozumianej tradycyjnie jako duży zbiór danych, który został wpuszczony do czarnej skrzynki. Tam kontrola jest raczej większa. I chyba dobrze. Jestem wielką admiratorką i propagatorką rozwiązań transparentnych odnośnie wykorzystania sztucznej inteligencji. Postawienia człowieka nie tylko na początku, ale też na końcu. To jest superważne w usługach publicznych. W przypadku urzędów, administracji publicznej pojawia się coraz więcej pomysłów, pierwszych wdrożeń SI. Natomiast na razie nie ma tego bardzo dużo. Na rynku startupów pojawia się natomiast inżynierskie podejście do tego tematu: zrobię coś, bo potrafię, bo to jest możliwe. Brakuje pytania: ale po co? Jaki realny problem rozwiązuje ten fajerwerk, który udało nam się technicznie zrobić? Taka naturalna dynamika czy bezwładność wprowadzania różnych dużych rzeczy przez administrację publiczną ma w tym momencie ten jeden plus, że stanowi naturalną ewolucję dla tych fajerwerków. One dość szybko gasną, zanim zdążą się przebić przez projekty, inicjatywy. Ale dzięki temu możemy zobaczyć, co naprawdę jest potrzebne, gdzie ta automatyzacja jest sensowna.

Dodatkowo w administracji publicznej zauważyć można bardzo duży aspekt przywiązania użytkownika końcowego do pewnych rozwiązań, konkretnych procesów. Żeby jakakolwiek automatyzacja miała sens, to użytkownik musi jej po pierwsze potrzebować, po drugie – chcieć, pewnie dobrze byłoby, gdyby ją rozumiał i lubił. Ta potrzeba jest bardzo ważna. Na razie te potrzeby są identyfikowane na wielu płaszczyznach. Pojawiają się zatem takie systemy, jak system obiegu dokumentów jak EZD, EZD PUW, EZD RP. Tam jest anonimizator, streszczenia, automatyczne wypełnianie metadanych, automatyczna dekretacja dokumentów, czyli rozdzielanie ich z głównej skrzynki do właściwych departamentów. I wszędzie tam te silniki sztucznej inteligencji się pojawiają, natomiast w rozsądnej dawce, czyli gdzie to rzeczywiście może pomóc, i to też nie jest miejsce, w którym zazwyczaj wstawia zupełne się nowinki techniczne, lecz raczej rozwiązania, które okrzepły, są bardziej zrozumiałe. W tym momencie nie uświadczymy tam jeszcze LLM-ów. Myślę, że to dobrze, bo chcielibyśmy mieć pewność, że jak załatwiamy sprawę w urzędzie albo dostajemy odpowiedź od naszego urzędnika, to ona jest jednak wolna od tych szalonych pomysłów na wygenerowanie treści, jeżeli ktoś wie, co za tym stoi.

Nie dostaje się z urzędu odpowiedzi od ChatGPT?

Na pewno nie. Mam wrażenie graniczące z pewnością, że w pewnych jednostkach urzędowych nie ma w ogóle dostępu do strony OpenAI. To jest związane z publicznym zajęciem stanowiska w kwestii używania takich narzędzi. Ja nie jestem przeciwna ich używaniu. Na co dzień korzystamy z bardzo dużej ilości różnego rodzaju oprogramowań, w których i tak SI jest obecna. Nauczyliśmy się z tym żyć, nie widzimy w tym zagrożenia. Myślę, że warto adaptować te narzędzia, jakimi one są, nie zmieniając swojego podejścia do odpowiedzialności. To samo dotyczy edukacji. Czy będę miała za złe mojemu studentowi, że użył jakichś narzędzi? Nie, dopóki będzie odpowiadał za wynik końcowy. Jeżeli to jest przegadany tekst a la ChatGPT, to dostanie adekwatną do tego ocenę. Myślę, że ten aspekt edukacji jest ważny, żeby z kolei urzędnikom uświadomić, że jeśli chcą korzystać z różnych udogodnień, to OK, ale do linii świadomości odpowiedzialności za swoje działania. Jeżeli chcę zaoszczędzić czas na pisanie tekstu i uważam, że Chat piękniej formułuje zdania niż ja, to OK, ale na koniec powinnam przeczytać go dwa razy i upewnić się, że wszystko się zgadza. I w tym sensie to jest OK.

Dzisiaj pozwoliłam sobie na pewien eksperyment. Wrzuciłam fragment ustawy i poprosiłam Chat, aby mi go napisał prostszym językiem. Akurat był to niewielki fragment. Napisał całkiem fajnie. Przeczytałam te trzy ciągiem napisane zdania, które zrozumiałam za pierwszym podejściem. Nie wyobrażam sobie sytuacji, w której ktoś to wrzuca, bierze wynik, wkleja do dokumentu, nie czytając, podaje dalej.

Mamy świadomość, że ograniczenia w administracji publicznej wynikają z wrażliwości danych. Rozwijając systemy EZD bądź budując kolejne rozwiązania wspomagające działanie tych usług, na pewno nie możemy korzystać z API otwartych, które będziemy odpytywać przez sieć, przez internet, żeby nasz system działał. To wykluczone. Urzędników należy szkolić pod tym kątem, by nie robili tak: skrócę sobie pismo ze wszystkimi danymi osobowymi, wrzucę do Chatu, potem skasuję, nikt się nie dowie. Te dane nie mogą wypływać. Natomiast mając duży model językowy, który nie łączy się z żadną chmurą ogólnoświatową, to jak rozumiemy, jak on działa, to OK.

Mamy duże plany i nadzieje związane z wytrenowaniem polskiego modelu, do którego mielibyśmy pełną jasność w kwestii danych, na których został wytrenowany, ale też wag i wszystkiego, czego nam trzeba, by się nim dalej zajmować. Taki plan jest i mam nadzieję, że uda się go zrealizować, a rozmowa o tym, co możemy zrobić publicznie dla ludzi, zyskałaby na jakości. Nie ma co ukrywać, dobry LLM potrafi zrobić niezłą robotę, np. przy rozumieniu kontekstu. Jest o wiele lepszy niż podejścia BERT-owe, parsujące tekst gramatycznie, kontekstowo, nawet w mniejszym oknie. Mamy dużo dobrych narzędzi. Jestem wielką fanką spaCy, chociaż ostatnio troszkę zaczynam odczuwać jego prędkość. Tu jakość vs prędkość przy bardzo dużej ilości danych zaczyna być uciążliwa, pewnie trzeba będzie coś z tym zrobić. Natomiast cały czas mamy kontrolę nad tym, kto pyta, o co pyta i na co zwraca uwagę. Ale gdybyśmy mieli takie dobre polskie LLM-y, to można by rzeczywiście próbować wdrażać więcej fajnych rozwiązań, np. asystentów. Ta konwersacyjność dobrego chatu jest krokiem naprzód prowadzącym do zminimalizowania wykluczenia cyfrowego. Bo jeśli do tego dołożymy jeszcze ASR, to w zasadzie jesteśmy w domu. Mamy pełną rozmowę, zero potrzeby umiejętności cyfrowych w celu komunikacji z e-usługą. To jest gigantyczny krok naprzód. My oczywiście wiemy, że trzeba to rozłożyć na kawałki i każdy z nich będzie miał swój margines błędu, a jak one się zsumują albo scałkują, to zrobi się też ciekawie. Ale pewnie z każdym rokiem, z każdym terabajtem danych będzie trochę lepiej.

Są też pomysły na AI nie tylko związane z tekstem. Podejmowane są próby automatyzowania pewnych decyzji, ale pojawia się tu pytanie o transparencję tych modeli. Książkowym przykładem jest to, by sztuczna inteligencja nie orzekała np. o kredytach. Więc w usługach publicznych trzeba mieć to na uwadze i zadbać o to, żeby to nie był wykonawca, który przyjdzie, zrobi kamień milowy, 90% skuteczności, pójdzie do domu i nikt nie dowie się w zasadzie, co było w tych danych i w którą stronę skrzywiony jest model, nie dostawca. Czuję, że jesteśmy na początku drogi pod tym względem.

Wydaje mi się, że w zastosowaniach administracyjnych, państwowych widać te problemy związane ze sztuczną inteligencją. One są bezpośrednie i namacalne. Te modele powinny być wyjaśnialne. Ktoś musi wziąć za nie odpowiedzialność. Musimy zrozumieć, jak one działają. Nie mogą to być czarne skrzynki, skrzywienia modeli, bo w zależności od tego, na czym je uczymy, tak będą odpowiadać. To bardzo trudny obszar zastosowania SI, ale z drugiej strony potencjalnie pomagający bardzo wielu osobom i urzędnikom, którzy są zatrudnieni w poszczególnych obszarach.

Jestem tego wielką entuzjastką. Uważam, że jako kraj jesteśmy niezwykle rozwinięci cyfrowo, Wi-Fi, zasięg komórkowy, możliwość wykonywania różnych usług, np. nasz słynny BLIK. To widać, jak się na chwilę wyjedzie z kraju, np. na Zachód. Przebywając w takich krajach rozwiniętych, jak Francja, Luksemburg, Niemcy czy w USA, okazuje się, że brakowało internetu w trzy-, czterogwiazdkowych hotelach. Jesteśmy przyzwyczajeni do tego, że u nas internet jest wszędzie, zasięg jest wszędzie dobry. Niedawno byłam w Stanach, jak się przysuwałam do rzeki w Bostonie, to traciłam zasięg, nie byłam w stanie rozmawiać, a w komórce pojawił się internet GPS. Więc jesteśmy rozwinięci infrastrukturalnie, jeśli chodzi o know how, wiedzę, nasze talenty krajowe. Jesteśmy w dobrym momencie, mamy dobre zasoby. Teraz trzeba tylko postawić na dobre konie i ruszyć do tego wyścigu. Niech to się wydarza. Cieszymy się, że 20% OpenAI to Polacy. Fajnie, tylko że w eksporcie. Teraz dobrze by było pewnie zatrzymać i zrobić coś dla nas. Takie są plany. Mam nadzieję, że uda się trochę udrożnić różne kanały rozwoju. I wszyscy to odczujemy. Pandemia sprawiła, że oczekujemy więcej usług niż kiedyś, ponieważ chęć załatwiania wszystkiego przez internet jest ogromna.

Czyli można się spodziewać, że powstanie polski ChatGPT?

Jest to wczesny etap, ale on już ma swoje ręce i kawałek nogi. Jak dostanie drugą, to na niej wstanie i pójdzie. Myślę, że kierunek jest wytyczony. Mamy naprawdę dobry kapitał społeczny, fachowców, specjalistów, entuzjastów, ludzi, którzy chcieliby zrobić coś fajnego. I to jest kluczowe, bo jak dochodzimy do wielkich danych, wielkich zbiorów i wielkich modeli, to już nie są rzeczy robione w piwnicy w pojedynkę. Tu już trzeba się łączyć siły i robić coś wspólnie, takie są plany. Są nadzieje, że follow up będzie wielkim świętowaniem sukcesów w tym zakresie.

Trzeba pamiętać, że pozostają wszystkie problemy, o których wcześniej powiedzieliśmy, kwestie odpowiedzialności i transparentności. Odpowiedzialności ludzie chyba najbardziej się boją, bo kojarzy się to z Orwellem, np. otrzymywaniem odpowiedzi od ministerstwa bez możliwości odwołania, ponieważ sztuczna inteligencja zadecydowała, że należy zapłacić karę. Więc odpowiedzialność człowieka, który dodatkowo na to spojrzy, spowoduje, że stanie się to bardziej ludzkie, nie takie orwellowskie. W tych samochodach, które jeżdżą na podstawie decyzji podejmowanych przez sztuczną inteligencję, to chyba nawet nie jest brane pod uwagę. Bo skoro samochód może zadecydować, czy przejechać pieszego, czy uderzyć w inny pojazd, to nie wiem, czy ta odpowiedzialność nadal jest po stronie kierowcy, skoro ten nie trzyma w ręku kierownicy.

To najdłuższa dyskusja na temat etyki od czasu rozpowszechnienia się sztucznej inteligencji. Nie będę w nią wchodzić, bo to nierozstrzygnięta kwestia. Uważam, że jednak cały czas człowiek jest tym istotnym elementem etapu projektowania rozwiązania, zbierania danych, nadzoru nad nimi, korekty wyników. Dobrze by było przez długi czas nie zrzucać tej odpowiedzialności. Projektować takie rozwiązania, w których ten human in the loop jest możliwy i ważny. Generalnie kooperacja, współpraca ramię w ramię tam, gdzie ma to sens.

Przypomniała mi się pewna sytuacja sprzed kilku miesięcy. Będąc w Australii, przypadkiem miałam okazję przejechać się Teslą jako pasażerka. Samochód włączony był w trybie auto. Kierowca siedział obok, ale chciał pokazać, jak to wygląda. Jechaliśmy do czasu, aż auto mocno zahamowało. Absolutnie niczego nie było na trasie przed nami, nic się nie wydarzyło. Kierowca stwierdził, żeby dalej jechać normalnie. Chyba jesteśmy jeszcze na etapie eksperymentowania, niekoniecznie oddania się w ręce sztucznej inteligencji. Natomiast współpraca z nią potrafi być owocna.

Fajnym przykładem jest anonimizacja. To trudne, niewdzięczne zadanie. Ważne ze względu na prawne regulacje związane z nieprzekazywaniem, nieoglądaniem danych wrażliwych. To dotyczy zbierania danych do różnych modeli, badań, pozyskiwania ich od różnych instytucji. Można je uzyskać pod warunkiem, że będą zanonimizowane. Rzadko bywa inaczej. Słuchaczy można uspokoić: na poziomie badawczo-administracyjno-państwowym wymiana danych jest bardzo pilnowana. Żeby do czegokolwiek mieć dostęp, trzeba mieć rzeczywiste uprawnieni. Rzeczy raczej zostają na komputerach właściwych, dane pozostają wyłącznie w danym urzędzie. Wszystkie rozwiązania muszą być offline, więc wiele bibliotek dostępnych szeroko online’owo odpada. Dlatego trzeba budować własne rozwiązania. Anonimizacja to strasznie trudne zadanie. Wyobraźmy sobie kilkaset tysięcy dokumentów, które takiej anonimizacji mają być poddane. Zwykły urzędnik robiłby to do emerytury. Poziom zadowolenia z pracy byłby u niego niewysoki.

Czy istnieje narzędzie, które w stu procentach anonimizuje automatycznie? Nie do końca. Mówię to z przekąsem, pamiętając swoją pracę nad anonimizatorem, który był na pewnym etapie tego systemu EZD. Strasznie trudne zadanie. Wynikało to z kilku powodów. Po pierwsze braku standaryzacji czegokolwiek. Brakowało standardów imion, nazwisk, adresów, dokumentów i ich układu, numerów identyfikacyjnych. Było mnóstwo błędów wynikających z ocerowania dokumentów papierowych. Myślimy, że jak założymy regułę na pesel, który zawsze wygląda tak samo, to on się przeczyta. Nie, bo jakaś cyfra może zamienić się w literę, pojawi się dodatkowa spacja, pewne rzeczy się elastycznie obchodzi. Natomiast to generuje problemy. Pytanie, jakiej wagi są to błędy. Raczej sporej. Dane wrażliwe, jak sama nazwa wskazuje, nie lubią być przepuszczane, bo są wrażliwe.

Rozwiązaniem zaproponowanym przez zespół NASK z Białegostoku jest anonimizator, który w dużej mierze działa samodzielnie. Masę elementów jest w stanie zaznaczyć czarnym okienkiem jako te potencjalne do anonimizacji. Natomiast użytkownik ma możliwość kliknięcia odpowiedniej ikonki, samodzielnego zaznaczenia tych fragmentów, które umknęły, i dopiero wtedy klika przycisk „anonimizuj”. Z tego tworzy się już taki obrazowy PDF, dokument zostaje zanonimizowany. Z jednej strony można powiedzieć, że „słabe, bo nie robi samo”. Ale z drugiej jeżeli to są długie dokumenty zwierające masę danych, to sam fakt, że urzędnik zaznaczy jedno okienko lub dwa zamiast 50, sprawia, że nadal jesteśmy 48 do przodu. To jest przyspieszenie pracy, niezastąpienie jej całkowite. Naprawdę trudno w pełni oddać ją w ręce anonimizacji. Nie wiem, czy ktoś chciałby się pod tym podpisać, szczególnie na masowych dokumentach. Jeżeli byłyby to dokumenty, które zostały oryginalnie stworzone cyfrowo, powstałe już na komputerze i należące do maksymalnie kilku, kilkunastu powtarzalnych kategorii, mające powtarzalne schematy, to pewnie dojdziemy do tego momentu. Tylko powinniśmy przepracować ten moment transformacji pomiędzy papierem a wersją cyfrową. Jak zgubimy te wszystkie skany, przestaniemy się na nich opierać, przepracujemy je wreszcie, to dojdziemy do tego pięknego, rajskiego momentu cyfrowych standardów, które same się czytają, i połowa problemów zniknie. Ale myślę, że to liczone jest jeszcze w długich latach.

Pracy jest dużo, oczekiwania są spore. Czy są konkretne plany w kontekście polskiego Chata? Gdzie takie prace wg ciebie najlepiej realizować? Czy w NASK-u, instytucjach badawczych, państwowych, które się tym zajmują? Czy w firmach prywatnych, na uczelniach? Bo w każdym z tych obszarów są plusy i minusy. Brak wystarczającej liczby ludzi, sprzętu, finansowania, dostępu do usług zewnętrznych, specyficznej infrastruktury, kart graficznych i łączenia różnych technologii, które czasami wykorzystują zewnętrzne usługi – wszystko to powoduje, że praca w mniejszym środowisku, które do takiej infrastruktury nie ma dostępu, jest problematyczna. Jak to zorganizować, żeby to było najbardziej efektywne? Co w ogóle planowane jest w tej kwestii?

Dobrze jest dywersyfikować. Nie powinno być jednej instytucji, która obstawia wszystkie usługi cyfrowe. Dywersyfikacja jest zdrowsza. Napędza rozwój, weryfikuje, pozwala zderzyć różne perspektywy, podejścia, know how wyniesione z różnych miejsc. Więc na pewno warto. Są takie problemy do rozwiązania, dla których NASK jest dobrym wyborem ze względu na swoje ustawowe funkcje, dostęp do pewnego rodzaju danych wrażliwych, w sensie nie osobowym, lecz typu danych. Więc to ma sens. Natomiast to nie jedyna taka instytucja. Dotychczas pracowaliśmy w konsorcjach, żeby dzielić się pracą. Często to były projekty NCBiR-owe lub europejskie, podczas których realizacji wchodziliśmy w konsorcja złożone z uczelni, mniejszych, większych firm, gdzie każdy dorzucał coś od siebie. Sam pomysł wchodzenia w takie konsorcja i robienie czegoś razem uważam za zdrowy i dobry. Myślę, że w wielu momentach to naprawdę fajnie działało, bo polegało na wymianie. Ktoś miał więcej doświadczenia praktycznego, rynkowego, do wdrożeń. Ktoś miał więcej teoretycznej wiedzy, która pozwoliła stworzyć nowe rozwiązania. A ktoś miał serwery, na których można coś policzyć, moc obliczeniową.

Uważam, że sporym blokerem jest to, że tych programów jest za mało. Wiemy, że są one specyficzne już na etapie przygotowania, podtrzymywania, rozliczania horyzontów działań. Jest tu sporo do zrobienia w celu udrożnienia możliwości takich konsorcjów. Działając na zasadzie podwykonawstwa trzeba wpaść znowu w zamówienia publiczne, które sprawiają, że mamy partnera intelektualnego, partnera naukowego, partnera do rozwoju danego rozwiązania, a musimy wystawić się na publiczny konkurs, randkę w ciemno, kompletnie nie wiedząc, kto za tą ścianą stoi, bo tak to zostało wymyślone. Z jednej strony możemy sobie wyobrazić, dlaczego tak jest, bo miało być fair, miało być otwarcie, tylko że w praktyce to absolutnie nie działa i najczęściej raczej utrudnia partnerstwa, które by przyniosły realny efekt. To nie jest fajne, więc czy powinny być wyłącznie dedykowane jednostki? Chyba nie, natomiast powinny być dedykowane, udrożnione procesy ułatwiające działanie na rzecz poligrade group, chociażby dla rozwiązań publicznych. Mam nadzieję, że jesteśmy w dobrym miejscu, na dobrej drodze, żeby coś z tym zrobić. Zdaję sobie sprawę, że jest dużo do udrożnienia w tym zakresie.

Pojawiły się pomysły – i mam nadzieję, że coś takiego uda się przeprowadzić – żeby były miejsca, w których znajdują się zasoby sprzętowe, narzędziowe, do których dostęp można na różne sposoby otrzymać. Na przykład w systemie tokenów za barterową wymianę. Są odnośnie tego plany, rozmowy, pomysły. Ja mam coś, ty masz coś, razem mamy tyle, żeby zbudować system AI. Nie chodzi o to, żeby każda jednostka miała teraz swoje gigantyczne centrum komputerowo-kartograficzne dla całej Polski, ale żeby fajnie te zasoby wykorzystywać. Myślę, że potrzeba więcej komunikacji. Problem polega na tym, że wiele centrów, zarówno na uczelniach, w biznesach, jak i instytucjach jak nasza, wzajemnie o sobie nie wie. W sensie: ktoś się z kimś spotkał gdzieś na konferencji, przy jakiejś okazji, to kojarzy, że ten robi tamto, a ten coś jeszcze, więc może zróbmy coś razem, natomiast takiego centralnego miejsca, w którym można by było taki market place prawdziwych potrzeb wzajemnej wymiany wiedzy, takiego prawdziwego dobierania się w sensowne podgrupy, nie ma. Planujemy coś z tym problemem zrobić, chcemy, żeby ludzie zaczęli się ze sobą spotykać, bo wydaje mi się, że jest nadprodukcja pewnych działań wynikająca z tego, że ludzie odwróceni do siebie plecami robią równolegle to samo. To dotyczy zespołów biznesowych, jak i naukowych.

Mimo że świat NLP nie jest w Polsce bardzo duży, trudno wiedzieć, co kto robi. Być może robimy podobne projekty i moglibyśmy współpracować. Natomiast taka przestrzeń komunikacyjna na pewno by tutaj pomogła. Infrastruktura techniczna to stały problem. Jak w takich badaniach dotyczących rozwiązań specyficznych dla Polski, i to jeszcze w środowisku badań finansowanych przez państwo, zapewnić odpowiedni dostęp do infrastruktury, kiedy wiadomo, że to jest albo za drogie, albo pieniądze niechętnie są wydawane na zewnętrzne serwerownie, ulokowane w Stanach lub nawet w Polsce, a przynajmniej sfinansowane nie z polskich pieniędzy. Więc ten temat jest nadal aktualny, szczególnie teraz, gdy te modele są coraz większe i potrzeby są nadal spore.

Są pomysły dotyczące przyznawania grantów np. na dostęp do mocy obliczeniowych. To byłoby nawet prostsze w rozliczaniu. Nie zawsze trzeba dawać pieniądze, bo one nie muszą oznaczać szybkiego dostępu do realizacji naszego pomysłu. Samo zrealizowanie zakupu, konfiguracja czasami trwają o wiele dłużej niż otrzymanie w ramach wsparcia przez państwo kilkumiesięcznego dostępu do mocy obliczeniowych.

Tak, to jest szczególnie śmieszne w kwestii przetargów i zamówień publicznych. Oczekuje się, że dostęp do chmury będzie zrealizowany w przetargu publicznym. Czyli oczekujemy, że AWS, Microsoft czy Google wystartuje w naszym przetargu, żeby złożyć ofertę dostarczania usług chmurowych. To są problemy, które trudno przejść.

I jak projekt badawczy ma rok i po dziewięciu miesiącach dostaniemy sprzęt i dostęp do mocy obliczeniowych, to nadal zdążymy wykonać założone przez nas plany. To chyba typowy problem. 

Dziękuję ci za znalezienie czasu na rozmowę z nami. Może wkrótce się zobaczymy, żeby porozmawiać też o tym, co rewolucyjnego wydarzy się w tym czasie. Może powstanie polski ChatGPT.

Oby, trzymajcie kciuki. Na pewno jestem otwarta na wszelkie konstruktywne marudy. Jeśli okaże się, że ktoś ze słuchających wie, że istnieją jakieś dodatkowe blokady, o których nie wspomnieliśmy, zupełnie inne czynniki, które są powodem codziennej frustracji, niech da znać, bo w kapitale społecznym siła. Wielkie dzięki za rozmowę.

Dzięki, do usłyszenia.

 

Dzięki wielkie za wysłuchanie tego odcinka. Więcej odcinków podcastu Stacja IT znajdziesz na naszej stronie internetowej stacja.it/podcast.

Możesz nas słuchać także w swojej ulubionej aplikacji na telefon komórkowy, skorzystać z nagrań wideo na YouTube lub z takich aplikacji, jak Spotify czy iTunes.

Do usłyszenia w następnym odcinku!

Komentarze