Kommt die Nachricht wirklich vom Chef? Vielleicht. Vielleicht auch nicht. © Gerd Altmann / Pixabay
  • Von Andreas Harms
  • 21.09.2023 um 12:46
artikel drucken artikel drucken
lesedauer Lesedauer: ca. 01:55 Min

Der Kreditversicherer Allianz Trade befasst sich in einer Studie mit Wirtschaftskriminalität. Darin zeigt sich, wie Betrüger neue Techniken nutzen, vor allem ChatGPT, welche Voraussetzungen man für eine erfolgreiche Täterkarriere mitbringen muss – und welche Rolle Firmenkultur spielt.

Der Prototyp des Wirtschaftskriminellen ist männlich, zwischen 40 und 50 Jahre alt und gebildet. Er arbeitet in gehobener oder gar leitender Position im Finanzwesen und gehört dem Betrieb mindestens zehn Jahre an. Und: Er arbeitet im geschädigten Unternehmen. Das geht aus der Studie „Wirtschaftskriminalität – neue Technologien, neue Betrugshorizonte“ des Kreditversicherers Allianz Trade hervor.

Sie liefert auch Gründe, warum immer wieder ein bestimmter Typ Mensch wirtschaftskriminell wird. Jüngere Menschen haben zum Beispiel oft nicht die Befugnisse, höhere Geldsummen anzuweisen. Wer hingegen schon älter ist und schon lange im Unternehmen arbeitet, kennt Stärken und Schwächen der Kontrollmechanismen und kann sie nutzen. Dorthin kommen aber nur Menschen, die ein sauberes polizeiliches Führungszeugnis haben. „Eine bis dato weiße Weste ist für die Weiße-Kragen-Täter die Grundvoraussetzung“, fasst der Rechtswissenschaftler und Kriminologe Hendrik Schneider zusammen.

57 Prozent aller wirtschaftskriminellen Fälle im Jahr 2022 haben Mitarbeiter des geschädigten Unternehmens verursacht, sogenannte Innentäter. Damit sorgten sie für 73 Prozent aller Schäden. Im Jahr 2023 sind es bisher 51 Prozent aller Fälle, aber immerhin 69 Prozent der Schäden.

Besonders bemerkenswert ist in der Studie jedoch jene Passage über Betrüger und neue Technologien, insbesondere künstliche Intelligenz (KI). Ein Aspekt, der sich am Ende auch auf das Geschäft der Cyberversicherer auswirkt. Denn zu solchen Betrügern gehören selbstverständlich auch Hacker.

Audio Deepfake

Es ist beeindruckend, wie gut KI-Programme inzwischen Stimmen fälschen können. Die Studienautoren warnen eindringlich: Der Punkt, an dem sich solche Programme für Betrug lohnen, ist nicht mehr weit. Dann klingt der gefälschte Chef sehr echt.

Fake-President-Fälle

Der Boss meldet sich und befielt, eine bestimmte Summe dort und dorthin zu überweisen. Und weg ist das Geld. Ganz ohne gefälschte Stimme, denn E-Mails oder Textnachrichten können das auch. Bei Allianz Trade hat man bemerkt, dass die Zahl solcher Fälle wieder steigt. Im Jahr 2022 waren es 15 Prozent mehr Fälle und 38 Prozent höhere Schäden als im Vorjahr. Aber warum? Die Antwort auf diese Frage führt unweigerlich zum KI-System ChatGPT (obwohl es das 2022 noch nicht gab).

ChatGPT optimiert das Verbrecher-Dasein. Musste man Informationen früher mühsam zusammensammeln und ausspähen, braucht man das heute nicht mehr. Man kippt einfach Daten wie etwa Mitarbeiterbriefe, E-Mails und Intranet-Inhalte ins ChatGPT-System und erhält sofort eine glänzend gefälschte E-Mail im Stil des Chefs – und mit Zahlungsaufforderung.

„Das hebt die Authentizität der Korrespondenz auf ein ganz neues Level und damit auch die Chancen, dass die Social Engineers erfolgreich sind“, stellen die Studienautoren nüchtern fest.

Dazu bedienen die Verbrecher weiterhin die klassischen menschlichen Hebel, erzeugen also Druck, Angst, Scham oder Erfolgshunger. Dagegen helfen laut Studie nur „Offenheit, eine gute Kommunikation und Fehlerkultur sowie flache Hierarchien.“ Oder anders gesagt, Mitarbeiter dürfen keine Angst davor haben, ihren Chef einfach mal zur Kontrolle zurückzurufen.

Die komplette Studie inklusive Tipps, wie sich Unternehmen schützen können, können Sie hier herunterladen.

autorAutor
Andreas

Andreas Harms

Andreas Harms schreibt seit 2005 als Journalist über Themen aus der Finanzwelt. Seit Januar 2022 ist er Redakteur bei der Pfefferminzia Medien GmbH.

kommentare

Hinterlasse eine Antwort

kommentare

Hinterlasse eine Antwort