"Authentisch" ist das Merriam-Webster-Wort des Jahres, aber warum?

27. November 2023

Merriam Webster AI

Merriam-Webster hat "authentisch" zum Wort des Jahres 2023 gewählt und erklärt, wie es mit der Zunahme gefälschter Inhalte, einschließlich KI-generierter Deep Fakes, neue Bedeutung erlangt hat. 

Das Wort "authentisch" wurde das ganze Jahr über im Online-Wörterbuch von Merriam-Webster häufig gesucht. 

Das Wort hat verschiedene Bedeutungen, unter anderem "echt oder unverfälscht", "der eigenen Persönlichkeit entsprechend" und "den Tatsachen oder einem Original entsprechend".


Merriam-Webster-Lexikograf Peter Sokolowski sagte der Associated PressWir sehen im Jahr 2023 eine Art Krise der Authentizität". Er wies darauf hin, dass es derzeit schwierig ist, dem zu vertrauen, was wir sehen und hören: "Wir vertrauen nicht mehr immer dem, was wir sehen", und "Authentizität ist selbst eine Performance".

In Bezug auf das Thema "Deep Fake Media" sagte Sokolowski: "Können wir darauf vertrauen, dass ein Student diese Arbeit geschrieben hat? Können wir darauf vertrauen, dass ein Politiker diese Aussage gemacht hat? Wir trauen nicht mehr immer dem, was wir sehen."

Die Wahl von "authentisch" zum Wort des Jahres, nach "gaslighting" im Jahr 2022, markiert das 20-jährige Bestehen dieser Tradition. Bei der Auswahl werden Daten über Wortabfragen analysiert, häufig gesuchte Wörter herausgefiltert und in diesem Jahr beliebte Wörter mit fünf Buchstaben, die durch Spiele wie Wordle beeinflusst werden, ausgeschlossen.

Auf den weiteren Plätzen für das Wort des Jahres landeten "X" (Elon Musks Umbenennung von Twitter), "EGOT" (ein Akronym für die Emmy-, Grammy-, Oscar- und Tony Awards) und "Elemental" (ein neuer Pixar-Film).

Weitere Wörter, die in die engere Wahl kamen, waren: 

  • Rizz
  • Deepfake
  • Implodieren
  • Dystopisch
  • EGOT
  • X
  • Anzeige erstatten

KI hat sich im Lexikon festgesetzt

Das Cambridge Dictionary wählte kürzlich "hallucinate" zu seinem eigenen "Wort des Jahres" für 2023

"Halluzinieren" wird traditionell mit der Wahrnehmung von Dingen assoziiert, die nicht existieren, was in der Regel auf gesundheitliche Probleme oder den Konsum von Drogen zurückzuführen ist, und wurde nun von AI neu definiert. 

In der künstlichen Intelligenz tritt eine Halluzination auf, wenn ein generatives Modell irrtümlich falsche oder fehlerhafte Informationen produziert. Dies geschieht, wenn die KI versucht, Lücken in ihrer Wissensbasis mit faktisch falschen Vorhersagen zu füllen.

Das Cambridge Dictionary hat eine neue Definition für KI-Halluzinationen hinzugefügt: "Wenn eine künstliche Intelligenz (= ein Computersystem, das einige der Eigenschaften des menschlichen Gehirns besitzt, z. B. die Fähigkeit, Sprache auf eine Weise zu produzieren, die menschlich erscheint) halluziniert, produziert sie falsche Informationen." 

KI ist, wie andere einflussreiche Technologien vor ihr, Teil unseres kollektiven kulturellen Ausdrucks geworden. 

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Sam Jeans

Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen