ChatGPT och data: Allt du behöver veta. Vi undersöker vad ChatGPT gör med data och hur användare kan hålla sig säkra.
Sedan OpenAI släppte ChatGPT ut i världen har åsikterna varit delade mellan dem som tror att det kommer att radikalt förbättra sättet vi lever och arbetar på och dem som är oroliga för olika hot särskilt när det gäller privatlivet för enskilda personer och organisationer.
Det har redan inträffat incidenter där känslig data har läckt ut och anställda har hamnat i trubbel efter att ha angett konfidentiell företagsinformation i chattroboten. Vissa länder har till och med infört tillfälliga förbud mot dess användning av dataskyddsskäl.
Så vad gör ChatGPT med din data och hur kan du använda den säkert?
Varifrån får ChatGPT data? Chat GPT är ett artificiellt intelligens (AI)-verktyg som drivs av maskininlärning (ML), vilket innebär att det använder ML-algoritmer för att förstå och svara på användarens inmatningar på ett konversationsmässigt sätt. För att göra detta har det ”tränats” med enorma mängder information som samlats från internet, inklusive 570 GB data från böcker, Wikipedia, artiklar och annat onlinematerial.
Genom att ha tillgång till denna mängd information kan det besvara frågor, skriva essäer, skapa och felsöka kod, lösa komplexa matematiska ekvationer och till och med översätta olika språk.
Men som ett verktyg för naturligt språkbearbetning arbetar det med sannolikhet och besvarar frågor genom att förutsäga vilket nästa ord i en mening bör vara baserat på de miljontals exempel det har tränats på. Det innebär att den information den tillhandahåller kan vara felaktig eller ofullständig, och eftersom de flesta data den innehåller producerades före 2021 kan den inte ge information om händelser under de senaste två åren.
ChatGPT sparar inmatningar och svar för att förbättra sina algoritmer. Det finns dock några försiktighetsåtgärder du kan vidta för att använda den säkert:
- Undvik att ange känslig personlig eller företagsinformation i chattkonversationer. Eftersom data kan lagras och användas för träning av AI, kan det vara bäst att undvika att dela konfidentiell information som kan vara attraktiv för skadliga aktörer i händelse av en säkerhetsintrång.
- Var försiktig med att dela betalningsinformation eller annan känslig data. Även om OpenAI har vidtagit åtgärder för att skydda användardata, finns det alltid en viss risk för dataläckage. Om du kan undvika att dela sådana uppgifter i chattkonversationer kan det minska risken för oavsiktlig exponering.
- Var medveten om att ChatGPT kan ha begränsad kunskap om händelser efter 2021. Eftersom det tränades på data som samlades in före detta år, kan det vara mindre tillförlitligt när det gäller att ge information om senaste händelser eller uppdaterade fakta.
- Var medveten om phishingattacker som kan utnyttja ChatGPT:s förmåga att generera text. Var försiktig med att klicka på länkar eller dela känslig information baserat på meddelanden från okända källor. Se till att verifiera avsändarens identitet och vara medveten om potentiella varningsflaggor för phishing.
- Om du är oroad över ditt privatliv kan du använda alternativa kommunikationsmetoder eller anonymiseringstjänster för att skydda din identitet och känslig information.
Hur säker är ChatGPT?
Säkerheten hos ChatGPT kan vara föremål för vissa bekymmer. Här är några viktiga aspekter att tänka på:
OpenAI har implementerat olika säkerhetsåtgärder, inklusive kryptering, åtkomstkontroller och regelbundna säkerhetsrevisioner för att minska risken för dataintrång eller obehörig åtkomst. Men det finns alltid en liten möjlighet till potentiella sårbarheter.
ChatGPT sparar de inmatningar och svar du skriver för att fortsätta träna sina algoritmer. Även om du raderar dina konversationer kan roboten fortfarande använda denna data för att förbättra sin AI. Detta innebär en risk om användare anger känslig personlig eller företagsinformation som kan vara attraktiv för skadliga aktörer i händelse av en säkerhetsintrång. Även om OpenAI har vidtagit åtgärder för att skydda användardata, finns det alltid en viss risk för dataläckage om känslig information delas i chattkonversationer.
För att hålla din data säker kan du undvika att dela känslig information i chattkonversationer och vara försiktig med att klicka på misstänkta länkar eller ge ut personlig information till okända källor.
Dessutom lagrar den andra personuppgifter när den används, som din ungefärliga plats, IP-adress, betalningsinformation och enhetsinformation (även om de flesta webbplatser lagrar den här typen av information för analysändamål, så detta är inte unikt för ChatGPT).
De datainsamlingsmetoder som används av OpenAI har väckt oro hos vissa forskare, eftersom de insamlade datamaterialet kan omfatta upphovsrättsskyddat material. Om du någonsin har skrivit en bloggpost eller produktrecension eller kommenterat en artikel online finns det en god chans att denna information behandlats av ChatGPT.
ChatGPT och cybersäkerhet
Det finns bevis för att ChatGPT redan används i skadliga syften. Dess förmåga att skriva kod innebär att den kan användas för att skapa skadlig kod, bygga dark webbplatser och genomföra cyberattacker. Som programmerare kan du använda verktyget för att få ut programkod.
Under ett nyligen hållet rådgivande styrelsemöte hos CS Hub diskuterade medlemmarna att de observerade att ChatGPT användes för att konstruera mycket sofistikerade phishingattacker. Den användes för att förbättra språket eftersom dålig stavning och grammatik ofta är tydliga tecken på ett phishingförsök. De rapporterade också att den används för att hjälpa skadliga aktörer att bättre förstå mottagarnas psykologi, med syftet att sätta dem under press för att göra phishingattacker mer effektiva.
I mars 2023 krävde över tusen AI-experter, inklusive OpenAIs medgrundare Elon Musk och Sam Altman, ett omedelbart stopp för skapandet av ytterligare stora generativa AI-verktyg under minst sex månader, för att ge forskarna tid att bättre förstå de risker de innebär och hur man kan mildra dem.
Vilka dataintrång har det varit hittills?
En bugg i ChatGPT:s källkod orsakade en dataläcka i mars 2023, vilket möjliggjorde att vissa användare kunde se delar av en annan aktiv användares chatt-historik. Även om antalet användare vars data blev avslöjad anses vara ”extremt lågt”, är det viktigt att vara medveten om att sådana händelser kan inträffa.
Det kan också ha gjort betalningsrelaterad information tillgänglig för 1,2 procent av ChatGPT Plus-abonnenter som var aktiva under en specifik tidsperiod.
OpenAI gav uttalande där de sa att de trodde att antalet användare vars data avslöjades var ”mycket lågt”, eftersom de skulle ha behövt öppna ett prenumerationsemail eller klicka på vissa funktioner i en specifik följd under en viss tidsram för att påverkas. Trots det stängdes ChatGPT av under flera timmar medan buggen åtgärdades.
Innan detta hade Samsung tre separata incidenter där konfidentiell företagsinformation matades in i chattroboten (Samsungs källkod, en transkription från ett företagsmöte och en testsekvens för att identifiera defekta