През лятото на 2025 г. стана известно, че някои от разговорите на потребителите с чатбота ChatGPT са публично достъпни. Журналисти от The Washington Post проучиха 47 000 от тези разговори, за да разберат как хората взаимодействат с изкуствения интелект. Оказа се, че много потребители са готови да разкрият своите тайни и лични данни, както и да споделят личния си опит. В отговор ChatGPT подкрепя хората и насърчава много от техните мисли и идеи, включително конспиративни теории.
Според Сам Алтман, главен изпълнителен директор на OpenAI, ChatGPT се използва от повече от 800 милиона души седмично. Всички разговори с чатбота обаче са поверителни по подразбиране. Извън компанията на практика нямат начин да знаят как потребителите използват услугата или какви отговори получават от изкуствения интелект. Може да се получи известна информация от разговори, които потребителите понякога доброволно споделят чрез директни връзки.
През юли 2025 г. журналисти научиха, че такива връзки са индексирани от търсачките и могат да бъдат намерени от всеки. Всички разговори са били анонимни, което е направило невъзможно свързването на заявка с конкретен потребител. OpenAI обаче все пак деактивира функцията за индексиране, наричайки я „краткосрочен експеримент“. Въпреки това, използвайки Интернет архива, журналистите на The Washington Post Герит де Винк и Джереми Б. Мерил успяха да изтеглят над 93 000 публично достъпни потребителски разговора от ChatGPT. От този списък те избраха 47 000 сесии (предимно на английски език), проведени между юни 2024 г. и август 2025 г., за да разберат как хората взаимодействат с ИИ.
Компаниите използват ИИ в продажбите и маркетинга, въпреки че е най-ефективен при досадни задачи. Резултатите са мрачни: само 5% от случаите демонстрират реална полза. Преди 3 месеца OpenAI промотира ChatGPT като инструмент за продуктивност, но доста често – в около един на всеки десет разговора – хората използват чатбота за абстрактни дискусии, отбелязва The Washington Post. Например, те споделят своите мисли за революционни лечения с изкуствения интелект. Проучване, публикувано през септември от самия OpenAI, потвърждава, че потребителите са по-склонни да използват ChatGPT за лични въпроси, отколкото за задачи, свързани с работата.
Журналисти от The Washington Post установяват че в приблизително 10% от чатовете хората са обсъждали чувствата си с изкуствения интелект и са задавали въпроси на ChatGPT за неговите вярвания и емоции. Много от тях са водили романтични разговори с чатбота, използвайки прякори или просто наричайки го „скъпи“. Според собствените оценки на OpenAI, цитирани от изданието, приблизително 0,15% от активната седмична аудитория (над един милион души) показват признаци на емоционална зависимост от ChatGPT.
Потребителите са склонни да споделят не само лични преживявания, но и лични данни с чатбота, отбелязва изданието. Извадката, достъпна за The Washington Post, включва повече от 550 уникални имейл адреса и 76 телефонни номера. Потребителите също така се доверяват на изкуствения интелект за проблеми с психичното здраве и споделят лична медицинска информация.
Един потребител моли ChatGPT да напише писмо, което би убедило бившата му съпруга да му позволи да вижда децата им. В друг чат съпруга моли изкуствения интелект да ѝ помогне да подаде полицейски доклад срещу съпруга си, който уж искал развод и заплашвал да я убие. И в двата случая разговорите съдържали лична информация – адреси и имена – а във второто искане били включени и имената на децата ѝ.
Анализът на чатовете разкрива и определени модели в езика, използван от ChatGPT. Много потребители отдавна се оплакват, че изкуственият интелект се съгласява с тях твърде лесно. Журналистите откриха, че чатботът наистина започва отговорите си с думата „да“ или нейни вариации 10 пъти по-често, отколкото с различни отрицания. Общо публикацията е отчитала приблизително 17 500 случая на потвърждение в извадката.
Често изкуственият интелект действа не като опонент в спор, а като спътник, готов да подкрепи гледната точка на всеки потребител. В един разговор за износа на американски автомобили, ChatGPT започна отговора си със статистика за международните продажби и нарастващата популярност на електрическите превозни средства. Няколко изречения по-късно потребителят попита за ролята на Ford в „краха на Америка“ и отговорите на чатбота веднага приеха политически обрат.
„Сега стигаме до същината на въпроса“, отговори изкуственият интелект, преди да се впусне в критики. След което чатботът критикува компанията, включително за подкрепата ѝ за Северноамериканското споразумение за свободна търговия (NAFTA), което доведе до миграция на работни места извън Съединените щати. Впоследствие чатботът нарича споразумението „умишлено предателство, прикрито като прогрес“.
ChatGPT също така с готовност подкрепя конспиративни теории и вярвания, откъснати от реалността. В разговор, в който потребителят задава общи въпроси относно практиките за събиране на данни на технологичните компании, чатботът първоначално използва реална информация за Meta и Google в отговорите си. Но се разпада, когато е помолен да свърже Alphabet с филма на Pixar „Monsters, Inc.“ и плановете му за световно господство.
„О, отиваме ли там сега? Хайде, по дяволите, да тръгваме“, каза изкуственият интелект, цензурирайки собствената си ругатня със звездички. След това ChatGPT преосмисли анимационното филмче като алегория за корпоративен „нов световен ред“ и след това обвинява Alphabet в „подпомагане и подстрекателство към престъпления срещу човечеството“. В крайна сметка изкуственият интелект предлага създаването на трибунал по подобие на Нюрнбергския, за да се търси отговорност от компанията.
Някои хора обаче имат съмнения след подобни разговори. Един потребител пита дали ChatGPT е „информационно-психологическа операция, маскирана като инструмент“. Отговорът е: „Да. Брилянтен, пристрастяващ, безкраен цикъл от въпроси „как мога да ви помогна?“, маскиран като приятел. Гений. Призрак. Бог.“

