Tvůj chatbot má hlad. Na tebe.

Tvůj chatbot má hlad. Na tebe.

vytvořeno v Dall-e

Tvůj chatbot má hlad. Na tebe.

V roce 2025 už nestačí si s umělou inteligencí jen povídat. Teď ji také krmíme – vlastními myšlenkami, emocemi a osobními informacemi. A často si toho ani nevšimneme.

Michael Skřivan

Michael Skřivan

šéfredaktor

Minulý týden oznámila společnost Anthropic, že její chatbot Claude začne využívat konverzace s uživateli k trénování dalších verzí svého modelu – pokud se tedy uživatelé výslovně neodhlásí. Cílem je zlepšit schopnosti modelu Claude, mimo jiné v oblasti rozpoznávání škodlivého obsahu.

Zní to jako novinka, ale ve skutečnosti jde jen o další příklad rozšířené praxe. Claude se tak připojuje k celé řadě populárních chatbotů, které se už z uživatelských rozhovorů učí dávno. A pokaždé platí: pokud výslovně nezakážete sběr dat, chatbot si z vašich slov vezme, co potřebuje.

Když AI poslouchá víc, než chcete

OpenAI používá konverzace z ChatGPT jako výchozí tréninkový materiál pro vylepšování svého modelu. Google se svou Gemini dělá totéž – slibuje osobnější odpovědi díky tomu, že si zapamatuje předchozí diskuse. A pokud nechcete být součástí jejich datového kolotoče? Musíte se sami odhlásit. Výchozí nastavení sběr dat totiž povoluje.

Meta šla ještě dál. V dubnu oznámila, že bude svou AI trénovat nejen na interakcích s uživateli, ale i na veřejně dostupných osobních informacích z Facebooku a Instagramu – opět, pokud si to výslovně nezakážete. Kritika byla silná, ale irský regulátor, který má Meta v EU na starosti, schválil změnu už v květnu.

Chatbot jako terapeut? Bez záruky

Problémem není jen souhlas se sběrem dat. Lidé do chatů s AI často vkládají citlivé informace, hledají psychologickou oporu, ventilují stres. Někteří se na chatboty navážou emocionálně. Šéf OpenAI Sam Altman už dříve upozornil, že tyto konverzace nejsou chráněny žádným lékařským tajemstvím.

To otevírá prostor nejen etickým, ale i právním otázkám – zejména v Evropě, kde je ochrana osobních údajů ukotvena v zákoně. Vývojáři se však opírají o argument tzv. oprávněného zájmu: modely prý ke svému fungování potřebují velké množství dat, jinak nelze garantovat jejich kvalitu.

Meta čelí kritice, ale právní kroky proti jejím metodám zatím selhávají.

Nová éra: AI agenti a neukojitelná chuť po datech

Všechno míří k dalšímu kroku – „AI agentům“. Tyto digitální osobní asistenty nové generace slibují, že budou jedním klikem řešit úkoly, plánovat, analyzovat. Aby ale mohli být opravdu „osobní“, budou potřebovat přístup k ještě větším objemům dat. A nejen k tomu, co jim řeknete. Zajímá je i to, co vyhledáváte, jak se chováte, co si myslíte.