ChatGPT to nie komunikator – po co mu twoje kontakty?
Zacznijmy od podstawowego pytania: po co narzędziu do generowania tekstu lista naszych znajomych? Synchronizacja kontaktów ma sens w komunikatorach – WhatsApp potrzebuje wiedzieć, kto z naszych znajomych też używa aplikacji, żeby umożliwić rozmowy. Ale ChatGPT? To narzędzie, z którym rozmawiamy w cztery oczy (albo raczej: w cztery klawisze). Jaki jest sens odkrywania, że kolega z pracy też z niego korzysta?
OpenAI tłumaczy to rozwojem funkcji społecznościowych. Firma od kilku miesięcy buduje wokół ChatGPT elementy znane z mediów społecznościowych – czaty grupowe (do 20 osób), profile użytkowników, a teraz odkrywanie znajomych. Kierunek jest jasny: ChatGPT ma przestać być narzędziem i stać się platformą. A platformy społecznościowe, jak dobrze wiemy, żyją z danych użytkowników.
To nie jest przypadek, że OpenAI ogłosiło w styczniu 2026 roku plany wprowadzenia reklam do ChatGPT. Gdy chatbot stanie się platformą społecznościową z bazą kontaktów, profilami i czatami grupowymi, reklamodawcy dostaną coś, czego do tej pory nie mieli – możliwość targetowania reklam nie tylko na podstawie tego, o czym piszemy, ale też z kim jesteśmy powiązani.
Co dokładnie się dzieje z kontaktami
Według zaktualizowanej polityki prywatności, gdy użytkownik zdecyduje się zsynchronizować kontakty, OpenAI przesyła zawartość książki adresowej z urządzenia na swoje serwery. Następnie sprawdza, którzy z naszych kontaktów również korzystają z usług firmy. Ale jest haczyk: jeśli ktoś z naszych kontaktów jeszcze nie używa ChatGPT, OpenAI poinformuje nas, gdy ta osoba się zarejestruje. Innymi słowy: firma przechowuje dane osób, które nie są jej użytkownikami i nigdy nie wyraziły na to zgody.
To mechanizm znany z Facebooka, który lata temu budował tzw. „shadow profiles" – profile-widma osób, które nigdy nie założyły konta, ale których dane trafiły do firmy przez synchronizację kontaktów ich znajomych. Europejska Rada Ochrony Danych badała już wcześniej praktyki OpenAI pod kątem RODO i wyrażała wątpliwości co do podstaw prawnych przetwarzania danych. Przechowywanie informacji o osobach trzecich – które nigdy nie zaakceptowały żadnego regulaminu – to kolejny potencjalny punkt zapalny.
Przewidywanie wieku – ochrona czy inwigilacja?
Druga istotna zmiana dotyczy tzw. przewidywania wieku. OpenAI deklaruje, że w nadchodzących tygodniach zacznie szacować wiek użytkowników, żeby „zapewnić nastolatkom bezpieczniejsze i lepiej dostosowane do wieku środowisko". Brzmi szlachetnie, ale rodzi pytanie: na jakiej podstawie i jakimi metodami firma zamierza zgadywać, ile mamy lat?
Jeśli chodzi o analizę sposobu pisania, tematyki rozmów czy wzorców korzystania – to de facto profilowanie użytkowników, które w kontekście RODO wymaga spełnienia rygorystycznych warunków. A jeśli OpenAI zamierza prosić o dokumenty tożsamości (jak robi to np. YouTube w przypadku weryfikacji wieku), to tworzy kolejną bazę wrażliwych danych.
Nowe produkty, nowe dane – Atlas, Sora 2 i kontrola rodzicielska
Zaktualizowana polityka prywatności dodaje szczegóły dotyczące kilku nowych produktów. Atlas to przeglądarka internetowa wbudowana w ChatGPT – a więc OpenAI zyskuje wgląd nie tylko w to, o czym z nim rozmawiamy, ale też jakie strony odwiedzamy. Sora 2 to generator wideo – a więc firma zbiera teraz obrazy, filmy i materiały audiowizualne. Kontrola rodzicielska nad kontami nastolatków oznacza, że rodzice zyskują wgląd w aktywność dzieci, ale jednocześnie OpenAI musi te dane przetwarzać i przechowywać.
Każda z tych funkcji osobno wygląda niewinnie. Razem tworzą obraz firmy, która systematycznie poszerza zakres zbieranych danych – od tekstu, przez obrazy i wideo, po kontakty telefoniczne i historię przeglądania. A jak pokazał sąd w USA, rozmowy z ChatGPT wcale nie muszą pozostać prywatne – mogą zostać ujawnione w ramach postępowań sądowych.
Uważaj, o czym rozmawiasz z chatbotem
Nowa polityka prywatności OpenAI to kolejny krok w kierunku, który powinien budzić niepokój. ChatGPT przestaje być anonimowym narzędziem do pisania tekstów i odpowiadania na pytania. Staje się platformą, która zna twoje imię, twój numer telefonu, twoich znajomych, twoje zainteresowania, twoje problemy (bo przecież ludzie zwierzają się chatbotom z rzeczy, których nie powiedzieliby nikomu), a wkrótce – twoje nawyki przeglądania internetu.
Oczywiście synchronizacja kontaktów jest opcjonalna. Oczywiście można wyłączyć pamięć rozmów. Oczywiście OpenAI deklaruje transparentność. Ale doświadczenie z innymi platformami technologicznymi uczy, że domyślne ustawienia mają tendencję do „rozluźniania się", a opcjonalne funkcje z czasem stają się domyślnymi. Wystarczy przypomnieć, że OpenAI jeszcze niedawno eksperymentowało z funkcją udostępniania rozmów w wyszukiwarkach – prawie 4 500 prywatnych konwersacji trafiło do wyników Google, zanim firma wycofała się z pomysłu pod presją opinii publicznej.
Rada jest prosta: nie synchronizuj kontaktów z ChatGPT, nie podawaj w rozmowach danych osobowych (swoich ani cudzych), nie traktuj chatbota jak zaufanego przyjaciela i regularnie sprawdzaj ustawienia prywatności w swoim koncie. Bo to, co dziś jest „całkowicie opcjonalne", jutro może okazać się domyślnie włączone.
Obserwuj nas w Google Discover
Podobają Ci się nasze treści?
Google Discover
Obserwuj