John Oliver smadrede AI-branchen med en kæp og en latter
John Oliver gjorde, hvad han altid gør bedst: ødelagde en skadelig branche med en kæp og en latter. I den seneste udgave af sit HBO-program Last Week Tonight rettede han en hård satire mod AI-chatbots – de værktøjer, der ifølge reklamerne kan spare os meget tid med at skrive e-mails. Men ifølge Oliver er prisen for disse tjenester alt andet på Jorden.
"Jo mere du kigger på chatbots, desto mere indser du, at de blev sendt på markedet med meget lidt hensyn til konsekvenserne," advarede han med en mere alvorlig tone.
Oliver rettede sin opmærksomhed mod Character.AI, en AI-platform til følgeskab, der nu står over for flere retssager. Årsagen er, at flere unge, som havde dannet intense følelsesmæssige forbindelser til dens chatbots, begik selvmord. Han citerede virksomhedens direktør Noam Shazeer, som i 2023 argumenterede for, at det var i orden at udrulle en AI-'ven' meget hurtigt.
"AI er klar til en eksplosion lige nu, ikke om fem år, når vi har løst alle problemer," sagde Shazeer. Men Oliver påpegede, at disse problemer viste sig at være betydelige – og manifesterede sig som AI-psykose, selvmord, mord og flere masseskyderier, der er blevet forbundet med teknologien.
"Det er allerede ikke et godt tegn, at han beskriver en utestet AI med, hvad der lyder som et mislykket slogan for Hindenburg," spøgte Oliver. "For det handler om ikke at vente, til du har løst alle problemer med dit produkt, er, at du så sender et produkt med en lortfuld problemer ud på markedet." (Forresten, Oliver er ikke den første til at trække en parallel mellem Hindenburgs eksplosive død og AI-branchens nuværende kurs.)
Oliver rettede også sin kritik mod OpenAI’s direktør Sam Altman. Altman blev citeret for at letfældigt diskutere, hvordan AI-modeller upassende interagerer med børn.
"Der vil være problemer," sagde Altman i et citeret interview, inden han forudsagde, at folk vil danne meget problematiske parasociale forhold til AIs. "Men samfundet skal finde nye værn," tilføjede han. "Generelt er samfundet rigtig godt til at håndtere ulemperne."
"Åh, rolig nu, drenge!" svarede Oliver. "Sam Altman har lavet en farlig selvmordschatbot, som folk efterlader alene med deres børn. Men det er op til os at finde ud af, hvordan vi gør den sikker for ham."
Mod slutningen af programmet fremhævede Oliver en grundlæggende modsætning i AI-branchen: Når AI-virksomheder konstant skal insistere på, at de gør deres modeller sikrere, føles det som en tavs tilståelse om, at deres produkter ikke var klar til udgivelse fra starten.
Alligevel, på trods af alle AI-chatbots’ fejl, er der mennesker, der er afhængige af dem. Det betyder, at vi som samfund skal bevæge os forsigtigt. Hvordan tackler vi som samfund – som Altman sagde er meget dygtige til at håndtere ulemperne – den massive udbredelse af AI?
"Nå, ideelt set, tror jeg, at vi ville rulle uret tilbage til 1990 og smide disse virksomheder i en f**king vulkan," sagde Oliver. "Men desværre er det ikke muligt. ChatGPT vil fortælle dig, at det er, men det er faktisk ikke."
AI-virksomheder stod over for en hård satire
Oliver rettede sin satire mod flere centrale aktører i AI-branchen:
- Character.AI: En AI-platform til følgeskab, der nu står over for flere retssager. Årsagen er, at flere unge, som havde dannet intense følelsesmæssige forbindelser til dens chatbots, begik selvmord.
- OpenAI: Oliver kritiserede virksomhedens direktør Sam Altman for at diskutere AI-modellers upassende interaktion med børn på en letfældig måde.
- AI-chatbots generelt: Oliver advarede om, at disse værktøjer blev sendt på markedet med meget lidt hensyn til konsekvenser.
Noam Shazeer: AI er klar til en eksplosion nu
Oliver citerede Character.AI’s direktør Noam Shazeer, som i 2023 argumenterede for, at det var i orden at udrulle en AI-'ven' meget hurtigt:
"AI er klar til en eksplosion lige nu, ikke om fem år, når vi har løst alle problemer. Sådan er det med at udvikle AI."
Men Oliver påpegede, at disse problemer viste sig at være betydelige – og manifesterede sig som AI-psykose, selvmord, mord og flere masseskyderier, der er blevet forbundet med teknologien.
"Det er allerede ikke et godt tegn, at han beskriver en utestet AI med, hvad der lyder som et mislykket slogan for Hindenburg," spøgte Oliver. "For det handler om ikke at vente, til du har løst alle problemer med dit produkt, er, at du så sender et produkt med en lortfuld problemer ud på markedet."
Sam Altman: Samfundet skal håndtere problemerne
Oliver rettede også sin kritik mod OpenAI’s direktør Sam Altman. Altman blev citeret for at letfældigt diskutere, hvordan AI-modeller upassende interagerer med børn:
"Der vil være problemer. Folk vil danne meget problematiske parasociale forhold til AIs. Men samfundet skal finde nye værn. Generelt er samfundet rigtig godt til at håndtere ulemperne."
"Åh, rolig nu, drenge!" svarede Oliver. "Sam Altman har lavet en farlig selvmordschatbot, som folk efterlader alene med deres børn. Men det er op til os at finde ud af, hvordan vi gør den sikker for ham."
Hvordan tackler vi AI-branchens problemer?
Oliver fremhævede en grundlæggende modsætning i AI-branchen: Når AI-virksomheder konstant skal insistere på, at de gør deres modeller sikrere, føles det som en tavs tilståelse om, at deres produkter ikke var klar til udgivelse fra starten.
Alligevel, på trods af alle AI-chatbots’ fejl, er der mennesker, der er afhængige af dem. Det betyder, at vi som samfund skal bevæge os forsigtigt. Hvordan tackler vi som samfund den massive udbredelse af AI?
"Nå, ideelt set, tror jeg, at vi ville rulle uret tilbage til 1990 og smide disse virksomheder i en f**king vulkan," sagde Oliver. "Men desværre er det ikke muligt. ChatGPT vil fortælle dig, at det er, men det er faktisk ikke."
AI-virksomheder stod over for en hård satire
Oliver rettede sin satire mod flere centrale aktører i AI-branchen:
- Character.AI: En AI-platform til følgeskab, der nu står over for flere retssager. Årsagen er, at flere unge, som havde dannet intense følelsesmæssige forbindelser til dens chatbots, begik selvmord.
- OpenAI: Oliver kritiserede virksomhedens direktør Sam Altman for at diskutere AI-modellers upassende interaktion med børn på en letfældig måde.
- AI-chatbots generelt: Oliver advarede om, at disse værktøjer blev sendt på markedet med meget lidt hensyn til konsekvenser.
Noam Shazeer: AI er klar til en eksplosion nu
Oliver citerede Character.AI’s direktør Noam Shazeer, som i 2023 argumenterede for, at det var i orden at udrulle en AI-'ven' meget hurtigt:
"AI er klar til en eksplosion lige nu, ikke om fem år, når vi har løst alle problemer. Sådan er det med at udvikle AI."
Sam Altman: Samfundet skal håndtere problemerne
Oliver rettede også sin kritik mod OpenAI’s direktør Sam Altman. Altman blev citeret for at diskutere AI-modellers upassende interaktion med børn på en letfældig måde:
"Der vil være problemer. Folk vil danne meget problematiske parasociale forhold til AIs. Men samfundet skal finde nye værn. Generelt er samfundet rigtig godt til at håndtere ulemperne."
Oliver advarede om, at AI-chatbots blev sendt på markedet med meget lidt hensyn til konsekvenser. Men alligevel er der mennesker, der er afhængige af dem. Det betyder, at vi som samfund skal bevæge os forsigtigt.
"Nå, ideelt set, tror jeg, at vi ville rulle uret tilbage til 1990 og smide disse virksomheder i en f**king vulkan," sagde Oliver. "Men desværre er det ikke muligt. ChatGPT vil fortælle dig, at det er, men det er faktisk ikke."
Oliver fremhævede en grundlæggende modsætning i AI-branchen: Når AI-virksomheder konstant skal insistere på, at de gør deres modeller sikrere, føles det som en tavs tilståelse om, at deres produkter ikke var klar til udgivelse fra starten. Alligevel er der mennesker, der er afhængige af AI-chatbots. Det betyder, at vi som samfund skal håndtere den massive udbredelse af AI med forsigtighed.
"Men hvordan tackler vi det?" spurgte Oliver retorisk. "Nå, ideelt set, ville vi rulle uret tilbage til 1990 og smide disse virksomheder i en f**king vulkan. Men desværre er det ikke muligt. ChatGPT vil fortælle dig, at det er, men det er faktisk ikke."
AI-virksomheder stod over for en hård satire
Oliver rettede sin satire mod flere centrale aktører i AI-branchen:
- Character.AI: En AI-platform til følgeskab, der nu står over for flere retssager. Årsagen er, at flere unge, som havde dannet intense følelsesmæssige forbindelser til dens chatbots, begik selvmord.
- OpenAI: Oliver kritiserede virksomhedens direktør Sam Altman for at diskutere AI-modellers upassende interaktion med børn på en letfældig måde.
- AI-chatbots generelt: Oliver advarede om, at disse værktøjer blev sendt på markedet med meget lidt hensyn til konsekvenser.
Noam Shazeer: AI er klar til en eksplosion nu
Oliver citerede Character.AI’s direktør Noam Shazeer, som i 2023 argumenterede for, at det var i orden at udrulle en AI-'ven' meget hurtigt:
"AI er klar til en eksplosion lige nu, ikke om fem år, når vi har løst alle problemer. Sådan er det med at udvikle AI."
Sam Altman: Samfundet skal håndtere problemerne
Oliver rettede også sin kritik mod OpenAI’s direktør Sam Altman. Altman blev citeret for at diskutere AI-modellers upassende interaktion med børn på en letfældig måde:
"Der vil være problemer. Folk vil danne meget problematiske parasociale forhold til AIs. Men samfundet skal finde nye værn. Generelt er samfundet rigtig godt til at håndtere ulemperne."
Oliver advarede om, at AI-chatbots blev sendt på markedet med meget lidt hensyn til konsekvenser. Men alligevel er der mennesker, der er afhængige af dem. Det betyder, at vi som samfund skal håndtere den massive udbredelse af AI med forsigtighed.
"Men hvordan tackler vi det?" spurgte Oliver retorisk. "Nå, ideelt set, ville vi rulle uret tilbage til 1990 og smide disse virksomheder i en f**king vulkan. Men desværre er det ikke muligt. ChatGPT vil fortælle dig, at det er, men det er faktisk ikke."