Neuer McAfee-Bericht zeigt den Anstieg von KI-Sprachbetrug

Juli 3, 2023

McAfee

Ein kürzlich veröffentlichter McAfee-Bericht zeigt den alarmierenden Anstieg von Betrugsfällen auf, bei denen KI-gestütztes Stimmenklonen eingesetzt wird.

Sogenannte "Betrugsmaschen" sind nichts Neues. Die Federal Trade Commission enthüllt dass derartige Betrügereien allein im Jahr 2022 in den USA einen massiven Verlust von $2,6 Milliarden verursacht haben, was einem Anstieg von 30% gegenüber dem Vorjahr entspricht.

Bei diesen Betrügereien, die auch als "Familiennotfälle" bezeichnet werden, gaukeln die Betrüger dem Opfer vor, dass ein geliebter Mensch dringend Geld benötigt.

In einem aktuelle McAfee-UmfrageJeder vierte Befragte gab an, auf einen KI-Stimmenbetrug gestoßen zu sein, und jeder zehnte gestand, persönlich angegriffen worden zu sein. Die McAfee-Studie unterstreicht, dass Betrüger Stimmen aus Audioschnipseln klonen können, die aus Social-Media-Clips stammen.

Der Social-Media-Influencer Eddie Cumberbatch, der über 100.000 Follower hat, erlebte beispielsweise einen KI-Betrug, als seine Großeltern eine Betrügerischer Anruf, der sich als seine Stimme ausgibt. Sie behaupteten, er habe einen verheerenden Autounfall gehabt und brauche dringend Geld.

In einem anderen Fall verlor ein kanadisches Ehepaar $21.000 in kanadischen Dollar (U.S. $15.449) durch einen ähnlichen AI-Sprachbetrug.

Ein KI-Klon der Stimme von Benjamin Perkin überzeugte seine Eltern davon, dass er im Gefängnis saß, weil er versehentlich einen Diplomaten bei einem Autounfall getötet hatte, und dass er das Geld für die Anwaltskosten brauchte. Seine Eltern willigten ein, und Perkins gegenüber der Washington Post offengelegt"Es gibt keine Versicherung. Man kann es nicht zurückbekommen. Es ist weg."

Als Reaktion auf den zunehmenden KI-Betrug warnte Steve Grobman, Chief Technology Officer von McAfee: "Bei den Fortschritten im Bereich der KI in diesem Jahr geht es vor allem darum, diese Technologien in die Reichweite von viel mehr Menschen zu bringen, auch um die Skalierung innerhalb der Cyberaktivisten-Community. Cyberkriminelle sind in der Lage, generative KI für gefälschte Stimmen und Deepfakes auf eine Art und Weise zu nutzen, die früher sehr viel mehr Raffinesse erforderte."

Was der McAfee-Bericht über KI-Betrug aussagt

Jüngsten Daten von McAfee zufolge nutzen Sprachbetrüger in der Regel die emotionale Bindung der Opfer an ihre Angehörigen aus. 

Eine von zehn befragten Personen wurde bereits persönlich angegriffen, und 15% gaben an, dass jemand, den sie kennen, Opfer geworden ist.

Am größten scheint das Problem in Indien zu sein, wo 47% der Befragten über Erfahrungen mit dieser Art von Betrug berichteten, gefolgt von den USA mit 14% und dem Vereinigten Königreich mit 8%. 36% aller befragten Erwachsenen gaben an, noch nie von diesem Betrug gehört zu haben.

Fast die Hälfte (45%) der Menschen geht auf eine Geldanfrage ein, wenn sie von einem Freund oder einer nahestehenden Person kommt, wobei bestimmte erfundene Szenarien überzeugender wirken. 

Ganz oben auf der Liste steht ein Autounfall oder eine Autopanne: 48% der Befragten gaben an, dass sie wahrscheinlich auf eine solche Situation reagieren würden. Dicht gefolgt von einem gemeldeten Raubüberfall mit 47%. 

Wenn der Anrufer behauptet, sein Telefon oder seine Brieftasche verloren zu haben, würden 43% der Menschen wahrscheinlich antworten, während 41% jemandem helfen würde, der angibt, im Ausland unterwegs zu sein und Hilfe benötigt.

Rund 40% der Befragten gaben an, dass sie wahrscheinlich einem Partner oder Ehepartner antworten würden, während ihre Mutter auf 24% kam. Bei Eltern über 50 Jahren würden 41% am ehesten antworten, wenn der Anruf angeblich von ihrem Kind kommt. 

Interessanterweise handelt es sich bei den meisten bekannten Fällen um Eltern oder Großeltern, die berichten, dass ein Betrüger die Stimme ihres Kindes oder Enkels geklont hat, um den Betrug durchzuführen. 

Seien Sie sich des KI-Betrugs bewusst

McAfee gibt mehrere Empfehlungen, um KI-Sprachbetrug zu vermeiden:

  • Legen Sie mit Ihren Kindern, Familienmitgliedern oder engen Freunden ein eindeutiges "Codewort" fest. Wenn Sie einen verdächtigen Notruf erhalten, fragen Sie nach dem Codewort. 
  • Hinterfragen Sie immer die Quelle. Egal, ob es sich um einen Anruf, eine SMS oder eine E-Mail von einem unbekannten Absender oder sogar von einer Ihnen bekannten Nummer handelt, nehmen Sie sich einen Moment Zeit zum Nachdenken. Stellen Sie Fragen, die ein Betrüger nicht beantworten kann, z. B. "Können Sie den Namen meines Sohnes bestätigen?" oder "Wann hat Ihr Vater Geburtstag?". Diese Taktik könnte einen Betrüger verunsichern und unnatürliche Pausen im Gespräch verursachen, die Misstrauen erregen.
  • Behalten Sie die emotionale Kontrolle. Cyberkriminelle nutzen Ihre emotionale Bindung zu der Person, für die sie sich ausgeben, aus, um eine übereilte Reaktion zu provozieren. Treten Sie einen Schritt zurück und bewerten Sie die Situation, bevor Sie reagieren. 
  • Seien Sie vorsichtig bei unerwarteten Anrufen von unbekannten Nummern.

Betrug im Zusammenhang mit KI ist allgegenwärtig, und es gibt keinen einfachen Weg, damit umzugehen. In einem kürzlichen Interview mit Fox News sagte ein Cybersicherheitsanalytiker, dass dies folgende Kosten verursachen könnte Amerikaner $1tn ein Jahr wenn sie nicht markiert ist.

Die Aufklärung über das Thema, einschließlich der Verwendung von Codewörtern und anderen Taktiken, um Betrüger abzuschrecken, ist vielleicht die wirksamste Methode, um den Sprachbetrug vorerst zu bekämpfen.

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Sam Jeans

Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen