
Jako humbuk kolem DeepseekOrganizace se ptají řady otázek o používání generativní AI na pracovišti. Konkrétně, zda Deepseek představuje konkrétní bezpečnostní hrozbu nebo jednoduše zdůrazňuje rizika související s rozšířením používání chatbotů umělé inteligence a modelů velkých jazyků (LLM). Odpověď, jako obvykle, je někde uprostřed.
Ačkoli čínský chatbot může mít své vlastní soukromí, zabezpečení a cenzuru, není to jediný. Všechny generativní modely AI a LLM nesou rizika, zejména pokud si nejste plně vědomi toho, jak často, kde a proč jsou používány.
S těmito nástroji, které vyžadují jen málo než webový prohlížeč, je stále obtížnější pochopit typy odesílaných a přijímaných informací mezi lidmi a aplikacemi. Pokud nás rychlý vzestup Deepseek může něco naučit, je to rychlost, s jakou mohou výkonné aplikace dosáhnout trhu a dosáhnout rozšířeného adopce. Pokud však ovládací prvky nejsou dostatečně rychlé, aby udržely tempo, zvýší se rizika pracující ve stínu.
Co se stane ve stínu?
Shadow AI odkazuje na použití jakéhokoli nástroje AI mimo kontroly a oprávnění organizace, často bez jeho znalostí. Zatímco někteří zaměstnanci úmyslně maskují jejich používání těchto aplikací, mnoho dalších je používá otevřeně a v dobré víře, aniž by si byli vědomi rizik nebo zda používají generativní AI.
Pokud se zeptáte průměrného zaměstnance, jaké aplikace AI používají každý den, mohou odpovědět na Chatgpt. Přesto se však běžně používá mnohem více: od společnosti Microsoft Copilot a Google Gemini po Claude, Grammarly, Otter a některé nástroje od Canva a GitHub.
Tyto aplikace nabízejí mnoho výhod a pomáhají zaměstnancům pracovat rychleji a efektivněji, ale je nezbytné vědět, co s nimi zaměstnanci sdílejí, a že ti, kteří je používají, vědí, jak pracují, jak zvládají data, a mnoho potenciálních rizik, která představují organizaci.
To, co nevíte, je, jestli vám mohou ublížit
Není divu, že jakmile Deepseek upoutal pozornost na světě, stal se cílem pro kybernetické zločince; Jakákoli aplikace, která ukládá a analyzuje data, je v křížových částech útočníků. Pokud uživatel neovládá použití těchto typů nástrojů, je nepravděpodobné, že zjistí, kolik jejich dat je jejich, než bude příliš pozdě.
To jsou některá z mnoha rizik, která Stínová AI vystavuje:
- Zranitelnosti zabezpečení: Pokud jsou informace sdíleny s neoprávněnou třetí stranou, neexistuje způsob, jak vědět, jak je uložen, zpracováván nebo analyzován. Něco tak neškodného, jako je žádost LLM, aby vytvořil e -mail pro klienta nebo shrnul přepis hovoru, může odhalit citlivá data o společnosti a jejích klientů.
- Integrita dat: AI dělá chyby; A když profesionál používá CHATGPT A další nástroje v nominální hodnotě, riskujete, že udělíte pravosti nesprávným informacím, které mohou ovlivnit vaši službu a poškodit vaši pověst.
- Dodržování: Kromě toho, že údaje vystavují riziku expozice, může sdílení informací se stínovými aplikacemi AI ohrozit dohody o důvěrnosti, GDPR a řadu dalších předpisů o ochraně osobních údajů.
- Vnitřní hrozby: Uživatelé, kteří kopírují a vkládají kód, text nebo obrázky z neautorizovaných nástrojů, mohou do svých systémů a sítí zavést zranitelnosti, malware a další prvky.
- Důvěra a spolehlivost: Použití stínových služeb AI může být v rozporu s veřejnou politikou těchto typů nástrojů, což způsobuje problémy s důvěrou a autentičnosti, pokud to zjistí současní nebo potenciální klienti a partneři.
Zabezpečení ve stínu
Neexistuje žádná stříbrná střela, která by chránila používání Shadow AI. Jakákoli účinná kybernetická obrana musí být vícevrstvá a kombinovat lidi, procesy a technologii. To znamená používat údaje zaměřené na uživatele a kontroly přístupu, spolu se silnými interními politikami a radami správy AI pro dohled a pokyny.
Se specializovanými nástroji DLP lze využití více než 600 generativních stránek AI sledovat pomocí uživatele, skupiny nebo oddělení; identifikovat každého, kdo má přístup k cloudovým datům, e -mailu a kalendářům; a monitorovat využití aplikace v kontextu s rizikem uživatele.
Komplexní řešení vám umožňuje vynutit přijatelné zásady pro použití generativní AI, blokování načítání nebo vkládání citlivých dat, redigování citlivých termínů v výzvách AI a zachycení metadat a obrazovky před a po použití generativních aplikací AI.
Tyto ovládací prvky musí být doprovázeny solidním a nepřetržitým školením, aby se zvýšila povědomí zaměstnanců. Každý v organizaci by si měl být vědom možných rizik spojených se Stínovým AI a také schválených procesů pro žádost a používání nových technologií.
Mít řešení, jak udržet krok s generativními nástroji AI, s architektonickým přístupem, vám umožní rychle inovovat a nasadit nové schopnosti s minimálním dopadem na produktivitu uživatele.
Tímto způsobem můžete zaměstnancům poskytnout to, co potřebují k tomu, aby vykonávali svou práci, aniž byste ve stínu ztratili důvěrná data.
