Joe Biden wezwał na dywanik gigantów sztucznej inteligencji. Chodzi – bez cienia przesady – o przyszłość ludzkości

Biznes Prywatność i bezpieczeństwo Technologie Dołącz do dyskusji
Joe Biden wezwał na dywanik gigantów sztucznej inteligencji. Chodzi – bez cienia przesady – o przyszłość ludzkości

Rozwój technologii sztucznej inteligencji (AI) nie jest już fantastyczną wizją przyszłości. To nasza teraźniejszość. Z każdym dniem AI zdobywa na sile, co niesie ze sobą kluczowe wyzwania związane z bezpieczeństwem i zaufaniem. 

Na szczęście największe firmy technologiczne na świecie podjęły próbę przeciwdziałania tym zagrożeniom. A przynajmniej bardzo chciałbym w to wierzyć. Amazon, Anthropic, Google, Inflection, Meta, Microsoft i OpenAI, po spotkaniu z Joe Bidenem w Białym Domu, formalnie zobowiązały się do nowych standardów w dziedzinie bezpieczeństwa, zaufania i ochrony użytkowników. Ta deklaracja wyznacza nową drogę ku odpowiedzialnemu wykorzystaniu AI. Pytanie brzmi: czy jest to kierunek, którym rzeczywiście podążymy?

Zobowiązania przedstawione przez „big tech” są ambitne, a ich realizacja będzie miała daleko idące skutki. Firmy zapowiadają przeprowadzanie zarówno wewnętrznych, jak i zewnętrznych testów bezpieczeństwa swoich systemów AI. Obiecują także podzielić się informacjami dotyczącymi zarządzania ryzykiem z szerokim kręgiem odbiorców, w tym z rządami, społecznością akademicką i społeczeństwem obywatelskim. Jednocześnie istnieje ryzyko, że gdy Amerykanie sami sobie narzucają standardy działania w tej sprawie, gdzieś w Chinach czy Arabii Saudyjskiej powstaje właśnie sztuczna inteligencja, która może zagrozić istnieniu ludzkości.

AI musi też uważać na cyberterroryzm

Kolejnym obszarem działań jest rozwijanie zabezpieczeń przed zagrożeniami cybernetycznymi, mających na celu ochronę najistotniejszych elementów systemów AI. Zabezpieczenia te mają także przeciwdziałać szeroko pojętym skutkom społecznym, jakie niesie ze sobą rozwój AI.

Wreszcie, firmy zobowiązały się do zdobywania zaufania publicznego. Zamierzają rozwijać mechanizmy, które umożliwią użytkownikom zrozumienie, kiedy mają do czynienia z treścią generowaną przez AI. Ta świadomość ma być osiągnięta m.in. za pomocą systemu znakowania wodnego. Zobowiązania te obejmują również priorytetowe badania nad ryzykiem społecznym, jakie niesie ze sobą sztuczna inteligencja.

Te deklaracje mogą brzmieć imponująco, ale pytanie pozostaje, jak będą one wyglądać w praktyce? W końcu, jak mówi Piotr Kowynia, CEO Nest Banku, największe wyzwanie polega na interpretacji tych zobowiązań. Kluczowe znaczenie ma zrównoważenie potrzeby regulacji z potrzebą wspierania innowacji w dziedzinie AI.

Podobna sytuacja przypomina koncepcję zbiorowej odpowiedzialności, której teraz muszą sprostać giganci technologiczni. Czy zdołają oni rzeczywiście działać w sposób społecznie odpowiedzialny, jednocześnie rezygnując z dążenia do własnych interesów i interesów swoich inwestorów? To jest pytanie, na które przyszłość przyniesie odpowiedź.

W kwestii regulacji AI tańczymy na krawędzi

Zobowiązania te, bez względu na ich ewentualne realizacje, są niezwykle ważne dla przyszłości technologii AI. Każdy krok, który podejmiemy dzisiaj, ma wpływ na jutro, a innowacja nie powinna odbywać się kosztem praw i bezpieczeństwa obywateli. To jest prawdziwe wyzwanie – znalezienie równowagi między innowacją a ochroną praw i bezpieczeństwa obywateli. To frazesy. Powiedzmy wprost: między innowacją i geniuszem AI, a zabezpieczeniem podmiotowych interesów ludzkości, która za chwilę może okazać się zbędnym gatunkiem. Jak w filmie Matrix.

Jak zauważają decydenci na całym świecie, zobowiązania te mogą posłużyć jako model dla przyszłych standardów i praktyk. Niemniej jednak, tak jak w przypadku wszelkich deklaracji, ostateczny werdykt przyniesie dopiero czas. W międzyczasie, powinniśmy docenić starania big techów na rzecz odpowiedzialnej AI, ale równocześnie pozostać czujni i krytyczni.