4. 12. 2024
Zásady bezpečné práce s jazykovými modely
Někteří z nich mají strach a dávají si pozor. Jiní jim bez obav svěřují i své osobní údaje. Divili byste se, kolik lidí již do jazykových modelů zadali číslo bankovního účtu, hesla k různým aplikacím nebo podrobnosti o svých životních okamžicích.
Nezapomínejte, že bezmyšlenkovitá důvěra vás může opravdu poškodit. Psychicky i materiálně. Využívejte jazykové modely, ale myslete přitom na zásady bezpečné práce.
Mluviti stříbro, mlčeti zlato
ChatGPT, Gemini, Claude, Bing, Mistral… Jazykových modelů existuje celá řada. Zkuste, který vám sedne nejlépe. Vyzkoušejte, co každý z nich nabízí. Ať už vám jejich pomoc přijde vhod do školy, do práce nebo si jen tak chcete zkrátit dlouhé čekání u lékaře, vyhněte se sdělování citlivých údajů.
Zapamatujte si jedno klíčové pravidlo. Cenou za bezplatnou službu jsou naše data. V případě většiny online dostupných jazykových modelů svými dotazy a daty totiž pomáháte trénovat a vylepšovat tyto technologie. A vaše údaje tak po přetrénování modelu mohou vyskočit jako odpověď na dotaz někoho jiného kdekoli jinde na světě. Do podobných jazykových modelů proto nikdy nepište:
- Osobní informace – jméno, adresa, telefonní číslo, číslo cestovního pasu.
- Data o bankovních účtech – čísla bankovních účtů nebo kreditních/debetních karet, informace o půjčkách, investicích.
- Přihlašovací údaje – hesla k aplikacím, odpovědi na bezpečnostní otázky.
- Údaje ze zdravotní dokumentace – informace o zdravotním stavu, léčbě, výsledky testů.
- Citlivé osobní záležitosti – rodinné vztahy, sexuální orientace, politické názory, náboženská či filozofická přesvědčení.
Opravdu. Buďte opatrní. Může se to obrátit proti vám. Nejen v podobě možných úniků a zneužití vašich osobních údajů, ale i v širším kontextu etických a sociálních dopadů.
Důvěřuj, ale prověřuj
Pokud jste s jazykovými modely pracovali, určitě se vám už stalo, že jste dostali nepravdivou informaci. Popíšou vám cestu do obchodu, který neexistuje. Vypracují souhrn z odborné studie, která neexistuje. A podobných situací můžou být stovky. Myslete na to, že informace, které dostáváte, nemusí být správné. Vždy si předložené informace ověřte. Ostatně některé modely se to snaží řešit za vás - třeba Perplexity nebo Bing vám pokaždé podsunou i odkazy, v nichž si můžete ověřit, odkud čerpaly data pro své odpovědi. Je ale důležité na ty odkazy občas kliknout a podívat se, že jsou skutečně relevantní.
Do firem sáhněte po offline modelech
Určitě byste své konkurenci jen tak nesdělili firemní tajemství. Vaše cenné know-how, za kterými jsou roky tvrdé práce i neúspěchů. Konkurenční výhodu si každá firma musí chránit. Podobně byste své zkušenosti měli střežit, i když využíváte online jazykové modely.
Samozřejmě, že moderní cloudové služby jsou pečlivě zabezpečené, ale riziko úniku a zneužití dat není nulové. Stejně tak mohou být online jazykové modely zbytečně drahé a neefektivní, protože jejich placené verze jsou postavené na monetizaci jejich využívání - čím víc lidí a čím častěji se ptají, tím rychleji vám začnou naskakovat účty za užívání.
Mnohem lepší variantou jsou pro firmy alternativní přístupy. Spolehněte se na offline modely, které data zpracovávají uvnitř vaší sítě, klidně i jen ve vašem vlastním PC. Výrazně tak snížíte riziko úniku dat. Naplánujte aktualizace podle předem vypracovaného časového harmonogramu a dejte zelenou inovacím. Offline modely můžete vylepšovat bez obav z vnějšího zásahu či jiných omezení.
Dodržujte zásady bezpečné práce
Umělá inteligence nemá vlastní vědomí. Pracuje pro člověka a neustále se učí. Každou novou informaci zpracovává, ukládá, vyhodnocuje a propojuje s těmi předešlými. Jazykové modely jsou nástroje s obrovským potenciálem. Využívejte je, ale zodpovědně a s rozvahou. A pokud si netroufáte sami na přípravu a nasazení offline modelu ve své firmě, neváhejte se obrátit na odborníky.
Autor článku: Václav Adamec, Business Operations Director, Gauss Algorithmic