En ny säkerhetsfunktion för ökad trygghet

OpenAI introducerar en ny frivillig säkerhetsfunktion för ChatGPT som riktar sig till vuxna användare. Funktionen gör det möjligt att utse en betrodd kontakt – en vän, familjemedlem eller vårdgivare – som kommer att kontaktas om AI:n upptäcker tecken på allvarliga psykiska problem eller säkerhetsrisker.

Hur fungerar det?

Om ChatGPT identifierar samtal som berör självskada, självmord eller andra krisrelaterade ämnen, kommer den utvalda kontakten att meddelas. Syftet är att snabbt koppla den drabbade personen till stöd från människor i sin omgivning, vilket kan vara avgörande i en kris.

"En betrodd kontakt kan göra en avgörande skillnad när någon befinner sig i kris." – OpenAI

Funktionen är utformad utifrån experters rekommendationer och fungerar som ett komplement till redan existerande hjälplinjer och stödresurser.

Stöd utöver tekniken

OpenAI betonar att denna funktion inte ersätter professionell hjälp utan snarare kompletterar den. Användare kan fortfarande nå lokala hjälplinjer och andra stödresurser direkt via ChatGPT.

Varför denna funktion är viktig

Många människor vänder sig till AI-chattar som ChatGPT för att ventilera eller söka råd i svåra situationer. Genom att integrera en säkerhetsmekanism som varnar närstående kan AI:n bidra till att förebygga allvarliga konsekvenser och erbjuda snabbare stöd.

Så här aktiverar du funktionen

  • Gå till inställningarna i ChatGPT.
  • Välj alternativet för säkerhetsfunktioner.
  • Ange en betrodd kontakt (vän, familjemedlem eller vårdgivare).
  • Bekräfta valet och spara inställningarna.

Framtiden för AI-säkerhet

Denna lansering speglar en växande trend där AI-företag integrerar fler säkerhetsåtgärder för att hantera risker kopplade till mental hälsa och säkerhet. OpenAI fortsätter att utveckla funktioner som främjar ansvarsfull användning av sina verktyg.

Källa: The Verge