W dniach 27–28 października 2025 r. we Wrocławiu odbyła się międzynarodowa konferencja Digital ID Forum 2025. Wydarzenie zgromadziło czołowych ekspertów, liderów biznesu, przedstawicieli administracji publicznej i środowisk naukowych z wielu krajów - z Europy i spoza niej, aby wspólnie omówić tematy związane z przyszłością tożsamości cyfrowej, innowacji technologicznych, cyberbezpieczeństwa, bezpieczeństwa sztucznej inteligencji oraz ram regulacyjnych dotyczących identyfikacji w świecie cyfrowym. W trakcie dwudniowej konferencji odbyły się wykłady, panele dyskusyjne i prezentacje praktycznych rozwiązań - a jednym z kluczowych punktów programu było wystąpienie Prof. Thirimachosa Bourlai, światowego autorytetu w dziedzinie biometrii, systemów identyfikacji i sztucznej inteligencji, łączące wnikliwą analizę technologii biometrycznych i sztucznej inteligencji z pytaniami o etykę i odpowiedzialność. Poniższy artykuł przedstawia najważniejsze zagadnienia zaprezentowane podczas tego wystąpienia.
Biometria jako filar cyfrowej identyfikacji – różne drogi, różne wartości
Prof. Bourlai rozpoczął swoje wystąpienie od przeglądu globalnych strategii wykorzystania biometrii - od krajów, które stawiają bezpieczeństwo na pierwszym miejscu, po te, które starają się równoważyć innowacje z ochroną prywatności.
W Wielkiej Brytanii, według szacunków, funkcjonuje ponad 5,2 mln kamer CCTV. Dominuje tam filozofia „security first”. To podejście, choć skuteczne w prewencji przestępczości, budzi rosnące obawy dotyczące nadzoru i braku proporcjonalności. Z kolei w Stanach Zjednoczonych brak ogólnokrajowych regulacji doprowadził do różnorodności przepisów stanowionych na poziomie stanowym. Jednym z najbardziej znanych przykładów jest Biometric Information Privacy Act (BIPA) w Illinois, który w jednym roku stał się podstawą ponad 1200 pozwów sądowych przeciwko firmom przetwarzającym dane biometryczne bez zgody użytkowników.
W Indiach działa programem Aadhaar - jeden z największych i najbardziej zaawansowanych systememów biometrycznej identyfikacji na świecie, obejmującym ponad miliard obywateli. Prof. Bourlai podkreślił, że choć Aadhaar umożliwił dostęp do usług publicznych i finansowych milionom ludzi, to równocześnie uwidocznił zagrożenia i wady masowych systemów identyfikacji - w tym także podatność na wycieki danych, błędy autoryzacji oraz ryzyko nadmiernej ingerencji państwa w życie obywateli.
W Europie natomiast dominuje podejście oparte na analizie i kontroli ryzyka, wyrażone w funkcjonującej już regulacji RODO i wdrażanej regulacji AI Act. Zgodnie z tymi regulacjami, zastosowania biometrii są klasyfikowane jako „wysokiego” lub „niskiego ryzyka” w zależności od celu i potencjalnego wpływu na prawa podstawowe. Takie ramy prawne mają zapewnić równowagę między innowacją a ochroną jednostki - choć, jak zauważył prelegent, tempo rozwoju technologii często przewyższa tempo legislacji.
AI i biometria: granica między rzeczywistością a fikcją coraz cieńsza
W drugiej części prezentacji dr. Bourlai przeszedł do technologicznego wymiaru transformacji, jaka dokonuje się na styku sztucznej inteligencji i biometrii. Dzięki rozwojowi uczenia głębokiego (deep learning) systemy AI potrafią dziś generować, modyfikować i analizować treści cyfrowe w sposób, który jeszcze kilka lat temu wydawał się niemożliwy.
Zostały zaprezentowane przykłady technologii takich jak sztuczne generowanie twarzy, synchronizacja ruchu warg z dźwiękiem, transfer stylu czy manipulacja atrybutami wizualnymi. Narzędzia te, początkowo rozwijane w środowiskach badawczych, dziś trafiły do powszechnego obiegu – zarówno w mediach, jak i w komercyjnych aplikacjach. W efekcie granica między oryginałem a falsyfikatem cyfrowym staje się coraz trudniejsza do rozpoznania i wykrycia.
Prof. Bourlai przytoczył również wyniki badań, które dowodzą, że nawet silnie rozmyte zdjęcia twarzy mogą zostać odtworzone z wysoką dokładnością przy użyciu modeli generatywnych. Takie odkrycia zwracają uwagę na konieczność stosowania odpowiednich rozwiązań w zakresie prywatności w epoce sztucznej inteligencji.
Nowe oblicze dezinformacji i przestępczości cyfrowej
Choć możliwości AI fascynują, prof. Bourlai ostrzegł, że te same narzędzia mogą być użyte przeciwko społeczeństwu. Sztuczna inteligencja umożliwiła powstanie nowej klasy zagrożeń, takich jak syntetycznych tożsamości, deepfake’ów oraz zautomatyzowanej dezinformacji.
Prelegent przywołał przypadki wykorzystania wygenerowanych postaci i fałszywych nagrań w kampaniach politycznych, a także głośny incydent, w którym oszuści dokonali transakcji o wartości 25 mln dolarów, wykorzystując realistyczny deepfake w wideokonferencji. Jeszcze kilka lat temu wymagałoby to zaplecza laboratoryjnego; dziś wystarczy laptop i ogólnodostępne oprogramowanie.
W konsekwencji bariera wejścia w świat cyfrowych fałszerstw gwałtownie spadła. Działają w nim nie tylko cyberprzestępcy, ale również grupy sponsorowane przez państwa, wykorzystujące technologię do manipulowania opinią publiczną, destabilizacji rynków i podważania zaufania do instytucji demokratycznych.
Multimodalna biometria – nowa generacja zaufania
W odpowiedzi na te wyzwania rozwija się koncepcja biometrii multimodalnej, łączącej różne cechy fizjologiczne i behawioralne, takie jak twarz, odcisk palca, głos, tęczówkę oka czy sposób chodzenia. Celem jest zwiększenie dokładności, odporności i trudności w podrobieniu tożsamości.
Według danych, które przedstawił prof. Bourlai, wartość globalnego rynku biometrii multimodalnej wyniosła w 2024 roku około 3,67 miliarda dolarów, a tempo wzrostu szacuje się na 14% rocznie. Największy udział w tym rynku ma rozpoznawanie twarzy (ok. 40%), ale najszybciej rozwijającym się segmentem są systemy oparte na sztucznej inteligencji.
Choć sprzęt - kamery, czujniki, skanery - nadal jest źródłem największych przychodów, to prawdziwym motorem rozwoju stają się rozwiązania software’owe: integracja AI, usługi chmurowe, zarządzanie zgodnością i optymalizacja procesów. To właśnie te elementy tworzą dziś kręgosłup zaufanych systemów tożsamości cyfrowej.
Dane biometryczne – zasób, którego nie da się zresetować
W przeciwieństwie do haseł czy tokenów, danych biometrycznych nie można zmienić. Jeśli zostaną ujawnione, nie da się ich „zresetować” ani zastąpić nowymi. Dlatego – jak podkreślił prof. Bourlai - bezpieczeństwo, przejrzystość i rozliczalność muszą być fundamentami każdej infrastruktury tożsamości cyfrowej.
Zaufanie społeczne nie wynika bowiem tylko z jakości technologii, lecz także z poczucia kontroli użytkownika nad własnymi danymi. Obywatele powinni wiedzieć, gdzie, w jakim celu i przez kogo ich dane są wykorzystywane. W praktyce oznacza to konieczność stosowania modeli privacy by design, certyfikacji rozwiązań i niezależnych audytów.
Prawo w pogoni za technologią
Prof. Bourlai zwrócił uwagę, że nawet najbardziej zaawansowane regulacje takie jak RODO czy projektowany AI Act, nie nadążają za tempem innowacji. Ramy prawne, które dziś wydają się adekwatne, za kilka lat mogą być przestarzałe wobec nowych form przetwarzania danych, uczenia modeli czy generatywnego AI.
Dlatego jego zdaniem konieczna jest „regulacyjna zwinność” – zdolność do aktualizowania przepisów w rytmie postępu technologicznego, bez utraty stabilności prawnej dla biznesu. Europa, budując swoje cyfrowe ramy zaufania, powinna inwestować nie tylko w kontrolę, ale również w edukację, interoperacyjność i otwartość innowacji.
Tylko w ten sposób uda się uniknąć pułapki nadmiernego formalizmu, który mógłby zdusić potencjał rozwojowy rynku tożsamości cyfrowej i AI.
Interoperacyjność i rola MŚP w budowie zaufanych ekosystemów
Jednym z tematów, który pojawił się w dyskusjach po wystąpieniu, była kwestia interoperacyjności - zdolności różnych systemów tożsamości cyfrowej do współdziałania w sposób bezpieczny i zgodny z przepisami. Dla Unii Europejskiej ma to kluczowe znaczenie w kontekście EUDI Wallet i całego pakietu eIDAS 2.0, które mają umożliwić obywatelom korzystanie z jednej, uznawanej w całej Europie tożsamości elektronicznej.
Prof. Bourlai zwrócił uwagę, że interoperacyjność to nie tylko kwestia techniczna, ale przede wszystkim społeczna i organizacyjna. Obejmuje standardy wymiany danych, wspólne procesy uwierzytelniania i weryfikacji, ale też jednolite podejście do audytów, certyfikacji i zgodności z regulacjami.
W tym procesie szczególną rolę odgrywają małe i średnie przedsiębiorstwa (MŚP) - dostawcy komponentów, integratorzy systemów i operatorzy infrastruktury. To właśnie oni w praktyce kształtują bezpieczeństwo cyfrowych portfeli, aplikacji i systemów uwierzytelniania. Ich udział w projektach badawczo-rozwojowych, testach interoperacyjnych i pilotażach ma kluczowe znaczenie dla wiarygodności i zrównoważonego rozwoju całego rynku.
Dla polskich firm z sektora zabezpieczeń i IT to również szansa na włączenie się w europejskie łańcuchy wartości – zarówno w roli dostawców technologii, jak i odbiorców rozwiązań testujących ich praktyczną skuteczność. Udział w inicjatywach takich jak HORIZON, ECCC czy Digital Europe pozwala budować kompetencje w zakresie AI, biometrii i cyberbezpieczeństwa, które wkrótce staną się podstawą gospodarki opartej na zaufaniu.
Koalicja nauki, biznesu i administracji
Na zakończenie wystąpienia prof. Bourlai podkreślił, że technologia sama w sobie nie jest ani dobra, ani zła - to sposób jej użycia determinuje skutki społeczne. Dlatego przyszłość cyfrowej tożsamości zależy od współpracy między trzema środowiskami: nauką, biznesem i administracją publiczną.
Naukowcy powinni rozwijać transparentne modele sztucznej inteligencji, które da się audytować. Biznes - budować rozwiązania oparte na odpowiedzialnym przetwarzaniu danych, natomiast państwo tworzyć ramy prawne, które umożliwią innowacje przy jednoczesnej ochronie obywateli.
„Technologia musi służyć ludziom - a to wymaga współpracy nauki, biznesu i rządu” – to zdanie, którym prof. Bourlai zakończył swoje wystąpienie, stało się jednym z najczęściej cytowanych podczas całego forum.
Wnioski dla europejskiego ekosystemu tożsamości cyfrowej
Refleksje prof. Bourlai są nie tylko komentarzem do bieżących trendów technologicznych, ale też wezwaniem do budowy etycznej infrastruktury zaufania. W świecie, w którym tożsamość cyfrowa staje się kluczem do niemal każdej interakcji, potrzebujemy nie tylko coraz doskonalszych technologii, lecz także jasnych zasad odpowiedzialności.
Zarówno dla przedsiębiorstw, jak i instytucji publicznych oznacza to konieczność odejścia od podejścia wyłącznie spełniania regulacji na rzecz kultury zaufania i przejrzystości. Odpowiedzialne podejście do biometrii i sztucznej inteligencji wymaga, by już na etapie projektowania systemów uwzględniać aspekty etyczne, społeczne i prawne. To zadanie musi być wspólnym wysiłkiem branży, nauki i administracji.
Prof. Bourlai podkreślił, że przyszłość identyfikacji cyfrowej nie zależy od tego, jak zaawansowane będą algorytmy, lecz od tego, jak mądrze z nich skorzystamy. W tym sensie każda decyzja - o wdrożeniu biometrii, integracji sztucznej inteligencji czy przetwarzaniu danych - staje się decyzją społeczną, wpływającą na zaufanie obywateli do instytucji i technologii.
Biorąc pod uwagę to, że biometria pozwala na jednoznaczną identyfikację osoby, z jednej strony rodzi ona zagrożenia utraty prywatności - przez brak możliwości “wymiany” cech (takich jak np wizerunek twarzy, odciski palców, rytm serca czy inne cechy biometryczne), z drugiej może być najlepszym narzędziem do ochrony naszej tożsamości pozwalając poszczególnym instytucjom na jednoznaczne zidentyfikowanie swoich klientów i potwierdzanie, że to rzeczywiście oni podejmują konkretne zobowiązania.


.png)
