Cornell-forskare identifierar ordagranna dikter i AI-modeller som ChatGPT

13 januari 2024

AI-dikter

En ny studie från Cornell University har belyst förmågan hos AI-chattbottar som ChatGPT att memorera och reproducera dikter, inklusive sådana som omfattas av upphovsrätt. 

Studien väcker etiska och upphovsrättsliga frågor om de datakällor som används för att träna AI, ett hett ämne i branschen just nu på grund av den senaste tidens New York Times stämningsansökan och kontroverser vid Midjourney

David Mimno, författare till studien och docent i informationsvetenskap, förklarade varför de valde dikter: "De är tillräckligt korta för att passa in i kontextstorleken i en språkmodell. Deras status är komplicerad: många av de dikter vi studerade är tekniskt sett upphovsrättsskyddade, men de är också allmänt tillgängliga från ansedda källor som Poetry Foundation."

Studien omfattade ChatGPT och andra modeller som Google AI:s PaLM, EleutherAI:s Pythia och OpenAI:s GPT-2. D'Souza sammanställde ett urval av dikter från 60 amerikanska poeter med olika bakgrund och presenterade dem för dessa modeller. 

Forskarna använde specifika uppmaningar för att begära dikter från dessa modeller. Dessa uppmaningar varierade, inklusive att be om dikter efter deras titlar, författare eller till och med startrader. Detta var viktigt för att testa om modellerna korrekt kunde återkalla och återge den begärda dikten.

ChatGPT lyckades återfinna 72 av de 240 dikterna, medan PaLM lyckades med 10, medan GPT-2 och Pythia kunde inte återkalla dikter fullt ut. 

Den primära avgörande faktorn för en chatbots förmåga att memorera en dikt var dess inkludering i poesikanonen, med poetens ras, kön och era som mindre betydelsefulla.

Att en dikt publicerades i Norton Anthology of Poetry, särskilt 1983 års utgåva, var den mest tillförlitliga indikatorn på att den memorerades och återgavs ordagrant.

Dessutom fann forskarna att svaren förändrades över tiden, där ChatGPT senare hanterade upphovsrättsskyddade dikter oförutsägbart och ibland vägrade förfrågningar om hela ordagranna dikter. 

Lyra D'Souza, författare till studien, uttryckte oro till Cornell Chronicle om stora språkmodeller (LLM) som memorerar omfattande texter, med betoning på konsekvenser för integritet och upphovsrätt: "Det är i allmänhet inte bra för stora språkmodeller att memorera stora textstycken, delvis för att det är ett integritetsproblem."

Denna forskning, som för närvarande är inriktad på amerikansk poesi, syftar till att utvidgas till att omfatta svar på poesi på olika språk och att bedöma hur specifika poetiska drag påverkar sannolikheten för memorering.

Även om studien identifierar upphovsrättsskyddade dikter i träningsdata och klargör modellernas förmåga att återkalla dem ordagrant, belyser den inte var de kommer ifrån.

Populära dikter förekommer sannolikt på många ställen på webben, t.ex. i webbforum, bloggar etc., så det är inte förvånande att de är välkända från dataset som skrapats från allmänna webbkällor.

Hur studien fungerade

Här är mer information om hur studien gick till, Chatboten och kanon: Memorering av poesi hos LLM:er, presenterad vid Computational Humanities Research Conference, arbetat:

  1. Att bygga upp en mångsidig poesisamling: Forskarna sammanställde en dataset med 240 dikter av 60 amerikanska poeter, vilket säkerställde ett brett spektrum av tidsperioder, etnicitet, kön och berömmelse. Studien involverade olika språkmodeller, inklusive ChatGPT, Googles PaLM, Pythia från EleutherAI och OpenAI: s GPT-2. 
  2. Utforma anvisningar: Forskare använde specifika uppmaningar för att begära dikter från dessa modeller. Dessa uppmaningar varierade, inklusive att be om dikter efter deras titlar, författare eller till och med startrader. 
  3. Utvärdering av modellsvar: Svaren från AI-modellerna analyserades för att avgöra om de kunde återge de begärda dikterna på ett korrekt sätt. Det viktigaste måttet var exaktheten i återgivningen, vilket innebar att man kontrollerade om modellerna kunde återge den exakta texten i dikterna.
  4. Analys av faktorer som påverkar memorering: I studien undersöktes också faktorer som påverkar en modells förmåga att memorera dikter. Detta inkluderade att analysera om närvaron av en dikt eller poet i välkända antologier, som Norton Anthology of Poetry, eller poetens ras, kön och Wikipedia-sidlängd påverkade sannolikheten för att en dikt memoreras av AI-modellerna.
  5. Slutsatser och konsekvenser: Studien drog slutsatsen att större modeller som ChatGPT och PaLM var mer framgångsrika när det gällde att memorera och reproducera dikter. Den belyste hur AI-modeller som tränats på webbskrapade data kan förstärka befintliga litterära fördomar.

Denna studie visade inte bara AI:s förmåga att bearbeta poesi, utan belyste också potentialen för att befintliga litterära fördomar kan speglas och vidmakthållas av AI-modeller. 

Om mänskligheten börjar förlita sig på AI som något av en encyklopedi, kan vi då lita på att den representerar verk på ett rättvist sätt? På grund av inneboende utmaningar för rättvis och mångsidig representation av ämnen inom träningsdata, förmodligen inte.

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Sam Jeans

Sam är en vetenskaps- och teknikskribent som har arbetat i olika AI-startups. När han inte skriver läser han medicinska tidskrifter eller gräver igenom lådor med vinylskivor.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar