Att använda ChatGPT säkert

Det här materialet hjälper dig att förstå vad du behöver tänka på när du använder ChatGPT i ditt arbete vid högskolan.

Avsnitt 1: Vad händer med det du skriver?

Högskolans ChatGPT-licens går via Atea och använder en företagsversion av OpenAI:s tjänst. Det innebär att det du skriver inte används för att träna AI-modellen. Det är en viktig skillnad mot den fria versionen av ChatGPT.

Men – och det är viktigt – det betyder inte att dina inmatningar är osynliga. När du skriver något i ChatGPT skickas texten till OpenAI:s servrar för bearbetning. Även om datan inte används för träning så lagras den tillfälligt och hanteras av en extern leverantör.

Tänk på det som att skicka ett brev till en konsult. Konsulten lovar att inte sprida innehållet vidare – men brevet lämnar ändå ditt skrivbord.

💡 Tumregel: Om du inte skulle skriva det på ett vykort till en kollega vid ett annat lärosäte, skriv det inte i ChatGPT.

Scenario 1A: Forskaren och intervjuutskriften

Situationen:
Anna har gjort djupintervjuer med patienter om deras upplevelser av vård. Hon vill använda ChatGPT för att få hjälp med tematisk analys. Hon kopierar in en utskrift med förnamn, ålder och sjukdomshistorik.

Reflektion: Vad är problemet?

Svar: Anna skickar personuppgifter – inklusive känsliga sådana (hälsodata) – till en extern tjänst. Det spelar ingen roll att leverantören inte tränar på datan. Uppgifterna lämnar högskolans kontroll. Lösningen: anonymisera materialet ordentligt innan det matas in.

Scenario 1B: "Men jag mejlar ju samma sak..."

Situationen:
Erik invänder: "Jag skickar intervjuutskrifter via e-post till kollegor hela tiden – vad är skillnaden?"

Reflektion: Har Erik rätt?

Svar: Erik har en poäng – också e-post innebär molnhantering (om ni använder exempelvis Microsoft 365). Men två fel gör inte ett rätt. Båda hanteringarna behöver bedömas. Det finns dock viktiga skillnader: e-post och dess innehåll kan krypteras, och e-postsystemet omfattas av ytterligare eller andra typer av säkerhetsåtgärder än ChatGPT. ChatGPT har ett annat avtal med andra villkor och ett svagare skydd för känslig information.

Avsnitt 2: Personuppgifter och sekretess

Som myndighet lyder högskolan under både GDPR och offentlighets- och sekretesslagen. Det gäller naturligtvis även när vi använder AI-verktyg.

Vad är personuppgifter?

Personuppgifter är all information som direkt eller indirekt kan kopplas till en levande person:

Känsliga personuppgifter

Vissa uppgifter kräver extra försiktighet:

Sekretessbelagd information får aldrig lämnas ut till obehöriga. Att mata in sekretessbelagd information i ChatGPT är att lämna ut den till OpenAI – en extern part.

⛔ Det är inte tillåtet att mata in personuppgifter eller sekretessbelagd information i ChatGPT.

Det finns inget utrymme för egna bedömningar i dessa frågor. Om ett material innehåller personuppgifter eller kan vara sekretessbelagt ska det inte användas i ChatGPT, oavsett syfte eller sammanhang. Vid minsta osäkerhet – avstå och kontakta högskolans juridiska avdelning.

💡 Kom ihåg: Personuppgifter och sekretessbelagd information ska aldrig skrivas in i ChatGPT. Inte för att testa, inte för att det verkar harmlöst, inte för att anonymiseringen "troligen räcker". Aldrig.

Scenario 2A: Disciplinärendet

Situationen:
Karin handlägger ett disciplinärende mot en student. Hon vill ha hjälp att formulera beslutstexten och klistrar in ärendebeskrivningen med studentens namn och personnummer.

Reflektion: Vad går fel?

Svar: Studentens personuppgifter och ärendet kan omfattas av sekretess. Karin lämnar ut dem till en extern part. Rätt tillvägagångssätt: använd ChatGPT för att få hjälp med generella formuleringar utan att inkludera någon identifierande information.

Scenario 2B: Den indirekta identifieringen

Situationen:
Lars vill analysera kursutvärderingsdata. Han klistrar in fritext-kommentarer från studenter. Han har tagit bort namnen men lämnat kommentarer som "Jag som utbytesstudent från Japan tyckte att..." i en kurs med bara en japansk utbytesstudent.

Reflektion: Varför är det problematiskt?

Svar: Även utan direkta personuppgifter kan kombinationen av uppgifter göra en person identifierbar. Det kallas indirekt identifiering och omfattas av GDPR.

Avsnitt 3: Ditt konto och din säkerhet

Din ChatGPT-licens är personlig och kopplad till ditt konto vid högskolan. Det innebär flera saker:

Dela aldrig dina inloggningsuppgifter

Varken med kollegor, studenter eller någon annan. Om en kollega behöver en licens ska de gå igenom samma process som du. Din inloggning är bara för dig.

Spårbarhet

Användningen är kopplad till dig. Om högskolan behöver utreda en incident är det ditt konto som syns i loggen. Du är ansvarig för vad som görs med ditt konto.

Konversationshistorik

ChatGPT sparar dina konversationer. Tänk på det som ett öppet dokument – inte som ett privat samtal. Om du har skrivit in känslig information finns det där i historiken.

💡 Tumregel: Behandla ditt ChatGPT-konto som ditt e-postkonto. Du skulle inte låta en kollega skicka e-post från din adress.

Scenario 3: Det delade kontot

Situationen:
Mikael har en ChatGPT-licens men hans kollega Sofia har ännu inte fått sin. "Använd mitt konto så länge", säger Mikael. Sofia använder kontot för att få hjälp med ett känsligt personalärende.

Reflektion: Vilka problem uppstår?

Svar: Flera:

  • Mikael har brutit mot reglerna genom att dela inloggningen
  • Sofia har potentiellt exponerat känslig information, men det är Mikaels konto som syns i loggen
  • Mikael kan dessutom se Sofias konversationshistorik

Avsnitt 4: Användning i praktiken

ChatGPT är ett kraftfullt verktyg, men det har begränsningar och risker:

AI-genererat innehåll kan vara felaktigt

ChatGPT genererar text som låter övertygande men som kan innehålla sakfel, påhittade referenser eller missvisande information. Det är inte en kunskapskälla – det är en textgenerator.

Var transparent med AI-användning

Om du använder ChatGPT för att producera text som publiceras i ditt namn bör du vara öppen med det. Transparens är viktigt i akademiska sammanhang och för högskolans integritet.

Immateriella rättigheter

Var försiktig med att mata in material som omfattas av upphovsrätt. Kontakta högskolans juridiska avdelning om du är osäker.

Myndighetsbeslut och ChatGPT

ChatGPT får inte användas som enda underlag för beslut som påverkar enskilda individer. Du är alltid den som beslutar, och du måste kunna motivera ditt beslut utifrån faktiska förhållanden.

💡 Tumregel: Använd ChatGPT som en assistent, inte som en beslutsfattare. Du är alltid ansvarig för det slutliga resultatet.

Scenario 4: Forskarassistenten

Situationen:
Jonas låter ChatGPT skriva stora delar av sin forskningsansökan. Texten ser bra ut och han skickar in den. Senare visar det sig att en av de angivna referenserna inte existerar – ChatGPT har fabricerat den.

Reflektion: Vad är lärdomen?

Svar: Jonas bär fullt ansvar för innehållet oavsett hur det har producerats. AI-genererade texter, och särskilt referenser, måste alltid verifieras. Det är ditt namn på dokumentet och ditt ansvar.

🔍 Snabb checklista innan du använder ChatGPT:

  • Innehåller min text personuppgifter? Kan någon identifieras direkt eller indirekt?
  • Är informationen sekretessbelagd eller på annat sätt skyddad?
  • Skulle jag ge den här informationen till en extern konsult utan vidare?
  • Har jag kontrollerat AI-genererade fakta och referenser?
  • Använder jag mitt eget konto (inte lånat eller delat)?
  • Har jag rensat konversationer som innehåller känslig information?

Viktigt: Om du har frågor om något specifikt du vill göra i ChatGPT, kontakta högskolans juridiska avdelning eller IT-avdelningen innan du fortsätter. Det är bättre att fråga än att göra något du är osäker på.