Szczyt w Bletchley Park. Wysiłki rządów i firm technologicznych na rzecz bezpiecznego rozwoju AI.

Szczyt w Bletchley Park. Wysiłki rządów i firm technologicznych na rzecz bezpiecznego rozwoju AI.

W Bletchley Park w Anglii w dniach 1-2 listopada odbył się pierwszy w świecie AI-Safety Summit. W spotkaniu uczestniczyli przedstawiciele 28 państw, Sekretarz Generalny Organizacji Narodów Zjednoczonych (SG ONZ), przewodnicząca Komisji Europejskiej, Organizacja Współpracy Gospodarczej i Rozwoju (OECD). Szczyt zakończyło przyjęcie Bletchley Declaration potwierdzającej wolę współdziałania na rzecz bezpiecznego rozwoju AI. Sukcesem szczytu jest deklaracja firm technologicznych o ich gotowości do współdziałania z rządami na rzecz bezpiecznego rozwoju AI. SG ONZ poparł zgłoszoną przez konsorcjum Microsoft, Google, OpenAI, Anthropic ideę powołania panelu ds. bezpieczeństwa AI (IPAIS), na wzór międzyrządowego panelu ds. zmian klimatycznych (IPCC). 

Nieco osobiście  

Bletchley Park znam bardzo dobrze. W latach 2003-2017 bywałem tam częstym gościem w związku z moimi obowiązkami zawodowymi. Polscy dyplomaci podejmują od wielu lat wysiłki na rzecz właściwego upamiętnienia w muzeum Bletchley Park wkładu polskich matematyków w złamanie kodu enigmy. Droga była długa i wyboista, i z pewnością nie jest zakończona. Na mnie osobiście największe wrażenie zrobiło wystąpienie w Bletchley Park ówczesnego szefa brytyjskiej agencji wywiadu elektronicznego (GCHQ) Roberta Hanningana w 80-tą rocznicę złamania kodu enigmy przez polskich matematyków . Podczas uroczystego wydarzenia mówił on o sztafecie wolnego świata na rzecz złamania kodu enigmy i masowego odkodowywania niemieckiej komunikacji wojennej. Tę sztafetę rozpoczęli Polacy w latach 30-tych. Dzięki ich pracy stworzono fundamenty dla współpracy aliantów, która pozwoliła masowo rozszyfrowywać wojenne depesze III Rzeszy właśnie w Bletchley Park, oddalonym o 80 km na północny zachód od Londynu supertajnym ośrodku służb brytyjskich. W 1945 r. personel Bletchley Park liczył 10 000 osób.  

Właśnie w Bletchley Park, w dniach 1-2 listopada odbył się pierwszy światowy AI Safety Summit. W przesłaniu do uczestników szczytu wyemitowanym na jego otwarcie król Karol III wspomniał o miejscu, w którym złamano enigmę. Nie do końca to prawda w świetle pierwszego złamania enigmy dokonanego przez wybitnych polskich matematyków na przełomie 1932/33 w siedzibie II Zarządu SG WP (Pałac Saski), ale nasi brytyjscy sojusznicy przyzwyczaili nas już do takiego przekazu (sic!).  

Jak to się działo dotychczas 

Technologia ma charakter transformacyjny. Zmieniła sposób, w jaki pracujemy, robimy zakupy i rozumiemy otaczający nas świat. AI jest częścią tej transformacji od 20 lat. Pytanie brzmi: jakiego rodzaju świat ta technologia może pomóc zbudować. To, kto będzie decydować o odpowiedzi na to pytanie, ma kluczowe znaczenie. 

Jak pokazuje historia, rządy zbyt wolno dostosowywały się do nowych warunków. Technologia pojawiała się ponad nimi. Długie cykle budżetowe sektora publicznego i czas realizacji nie odpowiadają dynamice rozwoju technologicznego oraz konieczności ciągłego doskonalenia. W rezultacie decyzje dotyczące obywateli pozostawiono firmom technologicznym lub organom technokratycznym – lub po prostu nie podejmowano ich wcale.  Współpraca międzynarodowa w zakresie zarządzania technologią jest słaba, podczas gdy podejście krajowe często dopasowuje systemy globalne do słabo zaawansowanych modeli zarządzania. Regulacje dotyczące technologii wcześniejszych generacji, takich jak platformy mediów społecznościowych, pojawiały się po długim czasie i często okazywały się nietrafione. 

Trudny kontekst

Opracowywanie systemów zarządzania AI na arenie międzynarodowej stanowi wyzwanie. Rozwój tej technologii jest szybki i przekroczył przewidywania ekspertów, nie mówiąc już o wysiłkach na rzecz opracowania regulacji. Istnieje konkurencja między krajami w zakresie opracowania najpotężniejszych systemów AI, szczególnie między Stanami Zjednoczonymi a Chinami. W przeciwieństwie do poprzednich osiągnięć technologicznych – jądrowych, kosmicznych czy globalnej telekomunikacji – sztuczną inteligencję rozwijają głównie prywatne firmy. 

Regulacja technologii cyfrowych jest obszarem międzynarodowej rywalizacji. Eksperci często odwołują się do „efektu Brukseli” – polegającego na tym, że firmy technologiczne dostosowują się do ogólnie wysokich standardów regulacyjnych UE, aby uzyskać dostęp do jej ogromnego rynku konsumenckiego. Z kolei „efekt pekiński” opisuje podejście Chin do sprzedaży taniej infrastruktury cyfrowej, często krajom rozwijającym się, w sposób, który wtapia się w chińskie rozumienie regulacji dotyczącej głównie nadzoru i ochrony danych. Czy Zjednoczone Królestwo (UK) może mieć nadzieję na wywarcie „efektu londyńskiego” na globalne zarządzanie sztuczną inteligencją? Początkowo opierałoby się to w dużej mierze na zwoływaniu szczytów i służeniu przykładem.  Stany Zjednoczone, Szwecja i Francja uznają, że sztuczna inteligencja nie powinna być budowana według planów akcjonariuszy, ale może i powinna być wykorzystywana przez społeczeństwo, dla społeczeństwa. Chociaż sztuczna inteligencja stwarza ryzyko, oferuje również możliwości odwrócenia dziesięcioleci niedoinwestowania w potencjał publiczny, przy jednoczesnym ożywieniu procesu demokratycznego. Wykorzystanie tych możliwości będzie zależeć od tego, czy rządy odegrają kluczową rolę w projektowaniu, rozwoju i wdrażaniu technologii, która powinna służyć dobru publicznemu. Będzie to wymagało inwestycji w potencjał cyfrowy rządów (państw), współpracy w zakresie technologii i zarządzania nią w wymiarze międzynarodowym.  

AI-Safety Summit skupiał się na bezpieczeństwie Frontier AI, którą UK zdefiniowało jako „modele sztucznej inteligencji ogólnego przeznaczenia o dużych możliwościach, które mogą wykonywać różnorodne zadania i dorównywać lub przekraczać możliwości w najbardziej zaawansowanych obecnie modelach”. UK podchodzi do bezpieczeństwa sztucznej inteligencji z perspektywy „ryzyka”, a na szczycie sklasyfikowano ryzyko na dwa sposoby: jako „nadużycie” i „utrata kontroli”. 

Ryzyko rewolucji: jak sztuczna inteligencja może ożywić demokrację 

Na szczycie przedstawiciele rządów uczestniczących państw podkreślali, że nadszedł moment, aby wykorzystać sztuczną inteligencję dla dobra publicznego. Bezpieczeństwo jest znanym tematem rozwoju technologicznego: technologia może oferować możliwości, ale równocześnie stwarzać ryzyko dla społeczeństwa. Uczą tego doświadczenia dotychczasowych generacji technologicznych. Najpierw w przypadku Internetu, potem mediów społecznościowych. Rolą rządów było zapobieganie niepożądanym skutkom kolejnych generacji technologii wdrażanych do powszechnego użytku. 

Istnieje alternatywne podejście. Sztuczna inteligencja może być siłą napędową rewolucji w zakresie kluczowych instytucji publicznych – od lokalnych bibliotek po organizacje międzynarodowe, stawiając czoła najbardziej złożonym globalnym wyzwaniom. Aby jednak to osiągnąć, rola rządów musi wykraczać poza zwykłe regulacje i zmierzać w stronę wdrażania publicznych systemów sztucznej inteligencji. 

Czołowi producenci sztucznej inteligencji, jak USA i Chiny (trzeba podkreślić, że to wcale nie taki oczywisty uczestnik szczytu w Bletchley Park), wspólnie z liderami branży, społeczeństwem obywatelskim i ekspertami dyskutowali o zarządzaniu ryzykiem związanym ze sztuczną inteligencją na poziomie międzynarodowym. 

Szczyt zgromadził przedstawicieli 28 państw z całego świata, od Singapuru, Rwandy i Nigerii, przez Brazylię, Indie, Japonię, Arabię Saudyjską, UAE po Niemcy, Francję, Włochy, Hiszpanię, Kanadę, Chiny, USA. Obecne były wiodące organizacje międzynarodowe jak ONZ, UE czy OECD oraz długa lista technologicznych organizacji biznesowych i społecznych aktywistów. Zakończyło go przyjęcie Bletchley Declaration potwierdzającej wolę uczestników do współdziałania na rzecz bezpiecznego rozwoju AI. 

Szczyt prezentowano jako pierwszy krok na drodze bezpiecznego rozwoju AI na skalę globalną. Uczestnicy zgodzili się co do istnienia potencjalnych zagrożeń i potrzeby międzynarodowej współpracy w odniesieniu do takich systemów AI, które mogą generować niebezpieczeństwa dla świata. Celem międzynarodowej współpracy w tym obszarze jest AI rozwijana i stosowana dla dobra ludzkości, w bezpieczny i odpowiedzialny sposób.   

Stanowisko USA, potęgi w zakresie sztucznej inteligencji, jest sukcesem gospodarzy szczytu. Większość najnowocześniejszych firm zajmujących się sztuczną inteligencją, takich jak twórca ChatGPT OpenAI, ma swoją siedzibę w USA. Biały Dom dał jasno do zrozumienia, że ​​jest uprawniony kontrolować modele AI. Biden wydał executive order regulujący kwestię przedstawienia rządowi przez firmy technologiczne wyników testów systemów sztucznej inteligencji, nim zostaną one wprowadzone do powszechnego użytku.  

Szczyt nie przyniósł uzgodnienia międzynarodowych ram regulacyjnych. USA i UK ogłosiły powołanie narodowych instytutów ds. bezpieczeństwa AI. Reprezentująca USA na szczycie wiceprezydent Kamala Harris i premier R. Sunak ogłosili nawiązanie brytyjsko-amerykańskiego partnerstwa na rzecz zapewnienia bezpieczeństwa AI. Zadeklarowali wolę koordynacji międzynarodowych działań na rzecz bezpiecznego korzystania przez ludzkość z dobrodziejstw AI. Inicjatywy te mogą odnieść sukces, jeśli przyczynią się do zbudowania międzynarodowego zrozumienia głównych zagrożeń związanych z AI, zaproponują modele pomagające wypełnić luki w wiedzy na temat AI po stronie rządów.  

Na krótko przed szczytem konsorcjum wiodących firm technologicznych Microsoft, OpenAI, Google i Anthropic ogłosiło powołanie nowego Frontier Model Forum, którego celem będzie zmniejszanie różnic w globalnym prawodawstwie dotyczącym AI. Konsorcjum zadeklarowało alokowanie 10 mln USD na rzecz funduszu bezpieczeństwa AI. Członkowie konsorcjum wzięli udział w szczycie w Bletchley Park. Inspirowani międzyrządowym panelem ds. zmian klimatycznych (IPCC), Mustafa Suleyman, współzałożyciel Inflection i DeepMind oraz Eric Schmidt, b. CEO Google zaproponowali utworzenie międzynarodowego panelu ds. bezpieczeństwa AI (IPAIS). Globalny charakter AI wymaga w ich ocenie wspólnego wysiłku w skutecznym zarządzaniu i regulowaniu technologii.  SG ONZ poparł na szczycie propozycję IPAIS. Największe firmy technologiczne zgodziły się na współpracę z rządami przy testowaniu ich zaawansowanych modeli sztucznej inteligencji przed i po ich udostępnieniu. 

Sukcesem jest decyzja prezydenta Francji, że w 2024 r. II AI-Safety Summit odbędzie się we Francji, co z pewnością podnosi szanse kontynuacji brytyjskiej inicjatywy. 

Nie brakuje głosów, że regulowanie rozwoju AI wymaga ostrożności. Nie może hamować kreatywności i rozwoju, a z drugiej strony nie może prowadzić do przeniesienia rozwoju AI do obszarów, gdzie nadzór byłby utrudniony.  

Siła polityczna firm technologicznych 

Siła technologii w sferze politycznej i geopolitycznej jest niezaprzeczalna. W Birmie i w Etiopii platformy cyfrowe były używane do podżegania do przemocy na tle etnicznym. Wiele mówiło się o ingerencji w proces brexitu i wybory prezydenckie w USA. Elon Musk, założyciel jednej z najnowszych firm zajmujących się sztuczną inteligencją, wkroczył na scenę geopolityczną wspierając armię ukraińską technologią Starlink. Nie wspominając o potencjale amerykańskiego Palantira. 

W rozważaniach nt. zagrożeń płynących z AI odnotować można zgodę wśród polityków i kierownictwa firm technologicznych co do obaw przed nadmiarem dezinformacji. Zamierzone nadużycie generatywnej AI może mieć wpływ na procesy demokratyczne. W tym kontekście wskazuje się na przyszłoroczne wybory w USA, Indiach, Indonezji czy na Tajwanie. Przyznał to Nick Clegg, były wicepremier w brytyjskim rządzie, a teraz prezes do spraw globalnych w Meta Marka Zuckerberga, wyrażając obawy co do możliwego bezpośredniego zagrożenia ze strony AI dla procesów demokratycznych. 

Nowoczesne technologie determinują naszą przyszłość. Funkcjonowanie firm technologicznych kontrastuje z tym, jak funkcjonują demokracje lub instytucje wielostronne, które są powolne, niedofinansowane i anachroniczne.  Tymczasem w jednym z artykułów w Foreign Affairs, Mustafa Suleyman, założyciel Google DeepMind postuluje zaproszenie firm rozwijających AI do stołu międzynarodowego na równych zasadach jak rządy państw. Aby wzmocnić pozycję instytucji publicznych w relacji do wiodących firm technologicznych i uczynić dialog z firmami technologicznymi, konieczne jest zbudowanie nowoczesnych mechanizmów zarządczych, nowych imperatywów projektowych i nowych modeli finansowania. To strona publiczna powinna poprawić wewnętrzne standardy funkcjonowania, aby sprostać wyzwaniom przyszłości. 

Rządy na całym świecie szukają sposobów budowania suwerennego potencjału technologicznego, często osiągając wyniki przy takich budżetach, na jakie firmy konsultingowe i outsourcingowe nie zwracałyby nawet uwagi. Szwecja finansuje szwedzki model wielojęzyczny, taki jak ten stojący za ChatGPT firmy Open-AI, uznając wartość tej technologii dla sektora publicznego. Amerykańska ustawa CREATE AI ma na celu utworzenie krajowego zasobu badawczego w zakresie sztucznej inteligencji, aby zapewnić dostęp do bardzo potrzebnej mocy obliczeniowej i zbiorów danych pracownikom akademickim, badaczom i start-upom. 

Wymóg przejrzystości, powtarzalności i dokładności w kontekście zamówień rządowych powinien mieć pozytywny wpływ na rozwój sztucznej inteligencji, tworząc rynek korzystnych społecznie i zaufanych narzędzi sztucznej inteligencji.  „Publiczna” sztuczna inteligencja jest możliwa do osiągnięcia i – jak twierdzi wielu – konieczna. Bez tego rządy pozostaną bezsilne, jeśli chodzi o łagodzenie zakłóceń cyfrowych, a ich systemy i procesy staną się przestarzałe.  

Przepisy międzynarodowe mogą odegrać istotną rolę w ograniczaniu potencjalnych zagrożeń związanych ze sztuczną inteligencją w najbliższej perspektywie poprzez zapewnienie przejrzystości co do tego, które zbiory danych są wykorzystywane do szkolenia sztucznej inteligencji lub w dłuższej perspektywie w celu monitorowania jej wykorzystania. Szansa, jaką daje sztuczna inteligencja, polega na budowaniu i zwiększaniu potencjału, a nie tylko na reagowaniu i regulowaniu. Publiczne możliwości sztucznej inteligencji mogłyby zostać połączone w różnych krajach, podobnie jak w przypadku międzynarodowych badań prowadzonych w CERN. 

Z ciekawostek

W szczycie wziął udział Elon Musk. Sunak zaprosił go na Downing Street na pogawędkę przy kominku, a wypowiedziane przez niego ostrzeżenie, że AI jest „jednym z największych zagrożeń dla ludzkości”, przyćmiło bardziej zniuansowane wypowiedzi w tej sprawie. Musk był gwiazdą wydarzenia, a jego obecność zwiększyła zainteresowanie szczytem.  

Konkluzja

Sztuczna inteligencja ma zarówno komercyjny, jak i publiczny potencjał, stąd troska rządów o bezpieczny rozwój i zastosowanie AI. Odnotowano już wiele przykładów społecznej odpowiedzialności biznesu w nowoczesnych technologiach. Miejmy nadzieję, że korzyści, jakie z wykorzystania AI może czerpać społeczeństwo, będą sprzyjały budowaniu zrozumienia i współpracy sfery publicznej z biznesem technologicznym, dla dobra wszystkich nas.  

autor: Dariusz Łaska, Public Affairs Manager w dziale Corporate and Public Affairs