The Guardian slutter sig til andre nyhedswebsteder og blokerer GPTBot

4. september 2023

The Guardian har sluttet sig til en voksende liste af hjemmesider, der har blokeret OpenAI's GPTBot fra at scrape deres hjemmesider.

Det britiske dagblad meddelte sin beslutning på sin hjemmeside i fredags og slutter sig til CNN, Reuters, Washington Post, Bloomberg og New York Times i Blokering af GPTBot. Selv om den ikke gav en fuld forklaring på årsagerne til beslutningen, nævnte den nogle almindelige bekymringer i branchen.

Den citerede den igangværende Retssager om ophavsret af forfattere som Sarah Silverman og opfordringerne fra britiske bogforlag til at beskytte deres arbejde mod at blive udnyttet af AI.

The Guardian anerkendte, at generative AI-værktøjer som ChatGPT gør nogle imponerende ting, men noget af semantikken i meddelelsen afslører et mindre entusiastisk syn på, hvordan AI-virksomheder arbejder med deres forretning.

Meddelelsen bemærkede, at ChatGPT var trænet på store mængder data, der var "indsamlet" fra internettet, og at den handlede for at forhindre virksomheden i at bruge software, der "høster" dens data.

Den har ikke ligefrem råbt "Stop tyven!", men budskabet er ret klart. 

En talsmand for udgiveren af Guardian og Observer sagde: "Skrabning af intellektuel ejendom fra Guardians hjemmeside til kommercielle formål er, og har altid været, i strid med vores servicevilkår."

Som et tegn på, at de måske er åbne over for at tillade datascraping i fremtiden, sagde talsmanden: "The Guardians kommercielle licensteam har mange gensidigt fordelagtige kommercielle relationer med udviklere over hele verden og ser frem til at opbygge yderligere sådanne relationer i fremtiden."

Interessant nok bemærkede The Guardian også, at de var bekymrede over det potentiale, som generativ AI har for at producere desinformation. De forklarede ikke, hvordan denne bekymring var relateret til deres beslutning om at blokere GPTBot, men som nyhedsudgiver er det et indlysende område, der giver anledning til bekymring.

Bortset fra etiske og ophavsretlige spørgsmål kan det også være, at The Guardians hjemmesideservere har oplevet lignende udfordringer som dem, X havde. 

Tidligere i år sagde Elon Musk, at en betydelig del af den belastning, som X-serverne oplevede, kom fra en Masser af AI-skraberobotter. Han har ikke blokeret dem direkte og har også tænkt sig at bruge offentlige tweets til at træne sin xAI-model.

Når en AI-bot besøger en hjemmeside og støder på en robot.txt-fil, der "blokerer" den, så skraber den ikke hjemmesiden af høflighed, ikke fordi den ikke er i stand til det. 

Når copyright-spørgsmålene er afgjort i loven, spekulerer jeg på, hvor længe høflighed vil fortsætte med at overtrumfe AI's umættelige appetit på data.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Eugene van der Watt

Eugene har en baggrund som elektronikingeniør og elsker alt, hvad der har med teknologi at gøre. Når han tager en pause fra at læse AI-nyheder, kan du finde ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser