Podle průzkumů obsahuje každá desátá konverzace zaměstnanců s ChatGPT citlivá firemní data. Pokud vaši zaměstnanci ChatGPT používají, je na místě řešit také informační bezpečnost. Díky správnému přístupu můžete minimalizovat riziko úniku interního know-how, obchodních tajemství či zákaznických údajů. Tento průvodce vám ukáže, jak s ChatGPT pracovat bezpečněji a zodpovědně.
Shrnutí pro zaneprázdněné
🚨 ChatGPT je důvěryhodný nástroj, ale přesto jsou s ním spojena různá rizika.
🚨 Vaše data mohou být použita pro zlepšování ChatGPT a další analýzy.
🚨 Stále platí, že důležitou součástí zabezpečení je silné heslo a dvoufaktorové ověřování.
🚨 Pluginy a GPTs přináší bezpečnostní rizika týkající se zpracování dat třetími stranami.
🚨 Nastavte ve firmě jasná pravidla pro používání ChatGPT, jednejte preventivně.
🚨 Odpovědnost za obsah nese uživatel, při používání je nutné myslet na právní otázky.
Proč je důležité řešit bezpečnost při používání ChatGPT?
ChatGPT a další nástroje z oblasti generativní umělé inteligence zažívají překotný rozvoj. Průzkumy ukazují, že dvě třetiny malých a středních podniků hledají cesty, jak tyto nástroje zužitkovat. Nejjednodušší cestou je využít chatboty typu ChatGPT, které pomáhají zaměstnancům zefektivnit každodenní pracovní činnosti jako:
- tvorba e-mailů,
- psaní zpráv a článků,
- shrnutí schůzek,
- nebo analýza souborů a dokumentů.
Ale pozor. Z nedbalosti či nevědomosti se tímto způsobem do ChatGPT dostávají kvanta citlivých a interních informací. Zajímavým postřehem také je, že 75 % majitelů malých a středních firem osobně zodpovídá za implementaci chatbotů, ale mnoho z nich nemusí být odborníky na bezpečnost nebo ochranu dat. S vidinou úspor a zvýšené produktivity tak mohou zapomínat na bezpečnost informací a dat.

Přidejte se k nám!
Rádi objevujete digitální svět a chcete získat více tipů? Staňte se součástí skupiny Digitální doteky na Facebooku, aby vám nic nového neuteklo. Pojďme být v kontaktu!
Chci do komunityRizika chatbotů: Bezpečnost ChatGPT
ChatGPT, stejně jako většina podobných nástrojů, uchovává a zpracovává data v cloudu. Fakticky to znamená, že s nahráním dat nad nimi ztrácíte kontrolu. I OpenAI (společnost, která ChatGPT vyvíjí) deklaruje, že není schopna odstranit data z historie konverzací. To znamená, že jakmile citlivá data nahrajete do ChatGPT, nemůžete je jednoduše smazat. I když smažete konverzaci s citlivými daty ve svém uživatelském rozhraní, data stále zůstávají na serverech v cloudu.
Práce s nástroji typu ChatGPT, také přináší nová rizika pro informační bezpečnost. Vaše data mohou být dle vámi odsouhlasených uživatelských podmínek využity pro zlepšování služeb, výzkumy a analýzy.
Jako nejčastější riziko se uvádí možné re-generování citlivých dat: ChatGPT může neúmyslně re-generovat vaše citlivé informace v odpovědích jiných uživatelů. I když společnost OpenAI údajně využívá techniky pro anonymizaci dat, nelze vyloučit možnost, že vaše data mohou tímto způsobem uniknout. Problémy s úniky citlivých dat v minulosti odhalil i výzkum Extracting Training Data from ChatGPT.
Dalším příkladem byla kritická zranitelnost, která umožňovala útočníkům převzít účet uživatele ChatGPT, což by jim poskytlo přístup k citlivým informacím a možnost provádět neoprávněné akce.
Postupem času se mohou objevovat i další bezpečnostní nedostatky. Ve světě digitálních technologií to není nic neobvyklého, spíše naopak.
Pluginy a GPTs: Jaké bezpečnostní hrozby přinášejí?
Pluginy a GPTs, které rozšiřují možnosti ChatGPT, mohou také přinášet významná bezpečnostní rizika. Pluginy jsou často vyvíjeny třetími stranami, a přestože OpenAI provádí základní kontrolu pluginů, není 100%:
🚨 Pluginy mohou obsahovat bezpečnostní chyby, které umožní útočníkům přístup k vašim datům.
🚨 Data sdílená přes pluginy mohou být zpracována poskytovateli pluginů, kteří nemusí dodržovat stejné bezpečnostní standardy jako OpenAI.
🚨 Pokud používáte pluginy k práci s citlivými daty, existuje riziko, že k nim může mít přístup více osob či organizací, což může vést k únikům nebo porušení předpisů, jako je GDPR.
Do ChatGPT určitě nepatří osobní údaje a citlivé údaje, na které se GDPR běžně vztahuje. Přemýšlejte tak, že vše, co do ChatGPT nahráváte, svým způsobem zveřejňujete.
Právní odpovědnost při používání ChatGPT
Použití ChatGPT k tvorbě obsahu (text, obraz, programový kód, …) s sebou nese také právní či reputační výzvy. Obsah generovaný ChatGPT není vždy vaším autorským dílem. Aby byl, musíte projevit dostatek kreativity při práci s nástrojem a moct svůj tvůrčí proces doložit. To může být v některých situacích klíčové.
ChatGPT může také generovat obsah chráněný autorskými právy, což může být problém, pokud plánujete své výstupy komerčně využít. Známý případ se týkal firmy, která zjistila, že text generovaný ChatGPT obsahoval úryvky z knih chráněných autorskými právy. To vedlo k právním sporům.
Dalším zajímavým problémem, který využijeme pro ukázku, je bezpečnost programového kódu generovaného ChatGPT. Když vědci testovali programové kódy, které vytvořil ChatGPT, zjistili, že mnohé z nich nesplňují minimální bezpečnostní standardy. Pokud využijete takový kód ve svých projektech, vystavujete se riziku, že obsahuje zranitelnosti, které mohou ohrozit bezpečnost celého projektu.
Ať generujte cokoliv, odpovědnost za výstupy nesete vy jako uživatel. Také v podmínkách používání se píše, že výstupy je vhodné kontrolovat a ověřovat.
Jak ochránit svůj účet ChatGPT a data: Bezpečnostní nastavení
Základem osobní bezpečnosti je stále silné heslo a vícefaktorové ověřování (MFA). Pokud útočník získá přístup k vašemu účtu, může procházet vaši historii chatů a získat přístup ke všem sdíleným datům. Také proto se začínají množit phishingové motivy zaměřené právě na účty v ChatGPT. Doporučujeme provést následující kroky:
- Nastavit silné a jedinečné heslo
- Povolit vícefaktorové ověřování (MFA) pro zvýšení bezpečnosti
- Nastavení → Zabezpečení → Vícefaktorové ověřování
- Nastavení → Zabezpečení → Vícefaktorové ověřování
- Zakázat použití vašich dat pro trénování modelu
- Nastavení → Ovládací prvky pro data → Vylepšovat model pro každého
Navštivte také Portál žádostí o soukromí OpenAI, kde můžete požádat o další omezení, která se týkají vašiho profilu a dat. Nezjistili jsme, zda se toto centrum liší od klasického nastavení přímo v ChatGPT, ale může se hodit o něm vědět.
Doporučení pro firmy: Jak bezpečně využívat ChatGPT
Pokud plánujete nebo již používáte ChatGPT ve své firmě, je důležité nastavit jasná pravidla používání ChatGPT. Jsou na místě pravidelná školení zaměstnanců a zajistit, aby všichni věděli o aktuálních rizicích, bezpečnostních opatřeních a právních důsledcích práce s AI. Rádi vašemu týmu připravíme workshop, kde shrneme nejen bezpečností hrozby spojené s prací v ChatGPT, ale ukážeme také techniky a způsoby, jak tento nástroj efektivně využít při každodenní práci.
ChatGPT: Produktivita, odpovědnost a bezpečnost
I když ChatGPT výrazně zvyšuje produktivitu, jeho používání vyžaduje zodpovědný přístup a důraz na bezpečnost i právní aspekty. Příklady z praxe opakovaně ukazují, jak důležité je chránit citlivé informace.
Základem ve vaší firmě je správná bezpečnostní strategie, dostatečné bezpečnostní povědomí zaměstnanců včetně adekvátního nastavení uživatelských účtů, nastavení silných hesel a dvoufaktorového ověřování. Tyto kroky jsou pro plné využití potenciálu ChatGPT, aniž byste vystavili firmu nadbytečným rizikům.
Pozn.: Při tvorbě článku jsme se snažili čerpat z aktuálních zdrojů, výzkumů a zkušeností. Přesto se může stát, že některé informace časem zastarají. Pokud objevíte něco neaktuálního, budeme rádi, když nás na to upozorníte a zapojíte se do revize textu.