Z Bartłomiejem Michałowskim, dyrektorem rozwoju i operacji w polskiej firmie DataServe, zajmującej się rozwiązaniami AI i cyberbezpieczeństwem. rozmawia Kazimierz Krupa.
Czy zgadzasz się, że AI jest jak energia jądrowa: potężna, użyteczna, ale też niebezpieczna?
Tak, zgadzam się, ale chciałbym rozwinąć tę myśl. W Polsce, w przeciwieństwie do wielu innych krajów, dopiero zaczynamy przygodę ze sztuczną inteligencją. Podobnie było z energią atomową: większość krajów korzysta z jej potencjału, my dopiero powoli wkraczamy w ten świat. AI niesie ogromne możliwości, ale musimy je świadomie wykorzystać, żeby nie powtórzyć błędu energetyki jądrowej – żeby Polska nie została z tyłu.
W jakich obszarach AI przynosi największe korzyści?
Przede wszystkim tam, gdzie mamy do czynienia z powtarzalną, żmudną pracą. Procesy administracyjne, biurokratyczne, powtarzalne operacje w firmach – wszystko, co wymaga schematycznego działania, można zautomatyzować i usprawnić. AI pozwala ludziom skupić się na zadaniach wymagających kreatywności i decyzyjności, zamiast tracić czas na rutynę.
Czyli AI raczej wspomaga człowieka, niż go zastępuje?
Tak, w większości przypadków tak właśnie jest. Chociaż oczywiście w niektórych procesach technologicznych czy administracyjnych może zastąpić człowieka całkowicie. Ważne jest jednak, żeby pamiętać, że AI nie ma uczuć ani prawdziwej inteligencji w ludzkim sensie. To przede wszystkim zaawansowane algorytmy i statystyka, które uczą się na danych, przewidują wyniki i usprawniają procesy.
Za pięć lat AI będzie już inteligentna?
Trudno mówić o „inteligencji” w ludzkim znaczeniu. Natomiast na pewno będzie potężnym narzędziem, zdolnym do przetwarzania ogromnych ilości danych i szybkiego udzielania informacji, co pozwoli nam podejmować lepsze decyzje. Możemy to porównać do różnicy między osobą z zeszytem a osobą z całą encyklopedią – wiedza i dostęp do informacji są nieporównywalne.
Kto zbuduje własną AI, będzie rządził światem! A Polska?
AI demokratyzuje wiedzę, czy raczej centralizuje ją w rękach nielicznych?
To zależy od systemu, w którym funkcjonuje AI. W demokratycznym kraju może działać jako narzędzie ułatwiające dostęp do wiedzy i technologii. W państwie totalitarnym – może służyć do inwigilacji i kontroli społeczeństwa. Wszystko zależy od tego, kto ma władzę nad danymi i algorytmami.
Przejdźmy do gospodarki. Gdzie leżą granice między wspomaganiem człowieka a jego zastępowaniem?
W codziennym życiu korzystamy z AI niemal nieustannie – nawigacja, systemy bankowe, wykrywanie oszustw finansowych. AI w instytucjach finansowych monitoruje transakcje w czasie rzeczywistym, chroniąc użytkowników. Równocześnie modele językowe, takie jak ChatGPT, pozwalają szybko uzyskiwać informacje, co wcześniej wymagało przeszukiwania setek stron. To wszystko pokazuje, że AI to wszechstronne narzędzie – wspomaga, przyspiesza i chroni.
A Polska w tym kontekście?
Musimy inwestować w rozwiązania AI tworzone w Polsce, bo inaczej ryzykujemy, że pozostaniemy tylko obserwatorami globalnych trendów. To klucz, żebyśmy sami kontrolowali swoje technologie i nie byli zależni od cudzych systemów. Polska ma potencjał – szczególnie jeśli chodzi o młodych inżynierów i startupy, które mogą szybko skalować innowacyjne rozwiązania.
A co z cyberbezpieczeństwem i hackerami?
Cyberprzestrzeń staje się miejscem zarówno biznesu, jak i zagrożeń. Hakerzy działają dla pieniędzy, władzy, ideologii, a czasem dla zwykłej zabawy – nawet w grach komputerowych. Problem pogłębia AI, które umożliwia tworzenie deepfake’ów – podkładanie czyjegoś głosu lub twarzy do materiałów, które mogą oszukać odbiorców. To stwarza realne zagrożenia dla prywatności i bezpieczeństwa.
Deepfake – jak działa i jakie niesie ryzyko?
AI analizuje obraz i dźwięk osoby, aby odwzorować ją w innym kontekście. Może to być zabawa, marketing, ale też narzędzie manipulacji. Przykład: nagranie „wnuczka” proszącego o pieniądze. Technologia jest tak realistyczna, że nawet ostrożni ludzie mogą dać się oszukać. To poważne zagrożenie społeczne, szczególnie dla dzieci i młodzieży.
Jak temu przeciwdziałać?
Edukacja i kontrola dostępu do danych są kluczowe. My w DataSurf dostarczamy rozwiązania AI, które pomagają firmom w inteligentnym zarządzaniu wiedzą, ale także uczą systemy rozróżniać prawdziwe dane od fałszywych. To jeden z wielu przykładów, jak można wykorzystywać AI konstruktywnie.
Kończąc, jeśli AI to energia jądrowa XXI w. – potrzebujemy urzędu, który to kontroluje?
Tak, absolutnie. Polska potrzebuje instytucji, które będą odpowiedzialne za strategiczne inwestycje w AI. W połączeniu z własnymi centrami danych i planowaną energetyką atomową, pozwoli to Polsce wykorzystać potencjał AI i chronić interesy narodowe. Sukces zależy od zasobów ludzkich, energii i decyzji strategicznych – to nasza szansa, żeby nie tylko korzystać z globalnych technologii, ale tworzyć je samodzielnie.