: OpenAI sperrt regierungsnahe Hacker aus

15.02.2024 | 02:48 Uhr
Immer öfter nutzen Cyberkriminelle mit Verbindungen nach China, Iran, Nordkorea und Russland auch künstliche Intelligenz. Das Unternehmen hinter ChatGPT geht dagegen nun vor.
Cyberkriminelle nutzen KI-Technologie laut OpenAI vor allem, um die Software-Entwicklung zu automatisieren.Quelle: AFP
Regierungsnahe Hacker aus China, Iran, Nordkorea und Russland haben als Kunden Technologie hinter dem Chatbot ChatGPT genutzt, um ihr Angriffe zu verbessern.
In Kooperation mit Microsoft seien die Accounts von fünf Hacker-Gruppen aufgekündigt worden, teilte die ChatGPT-Entwicklerfirma OpenAI am Mittwoch mit.

Innenministerin Faeser hat Anfang Februar ein neues IT-Lagezentrum in Bonn eröffnet. Es soll kritische Infrastruktur besser vor Cyberattacken schützen. Spezialisten behalten die Sicherheitslage hier rund um die Uhr im Blick.

06.02.2024 | 01:47 min

Hacker nutzen KI-Technologie zur Software-Entwicklung

Die Hacker nutzten die Technologie mit Künstlicher Intelligenz hauptsächlich, um die Software-Entwicklung zu automatisieren. Einige der Gruppe griffen darauf aber auch zurück, um technische Dokumentation zu übersetzen und nach öffentlich frei verfügbaren Informationen zu suchen.
Die iranischen und nordkoreanischen Hacker hätten aber auch Texte für Phishing-Attacken von der KI schreiben lassen. Bei solchen Angriffen werden die Opfer mit Hilfe täuschend echt aussehender E-Mails verleitet, ihre Login-Informationen auf fingierten Websites der Hacker einzutippen.

Noch keine neuartigen Angriffe bekannt

OpenAI schränkte zugleich ein, die Entdeckung bestätige die Einschätzung, dass aktuelle KI-Technologie für die Entwicklung von Cyberattacken nur eingeschränkt nützlicher sei als herkömmliche Werkzeuge. Auch Microsoft betonte, man habe noch keine neuartigen Angriffe durch den Einsatz von KI gesehen.
ChatGPT löste vor gut einem Jahr den Hype um Künstliche Intelligenz aus. Solche KI-Chatbots werden mit gewaltigen Mengen an Informationen angelernt und können Texte auf dem sprachlichen Niveau eines Menschen formulieren, Software-Code schreiben und Informationen zusammenfassen.

Künstliche Intelligenz produziert Videos, die nur schwer als Fakes zu identifizieren sind. Welche Chance hat da die Wahrheit? Wir sprechen mit Bernhard Pörksen, Medienwissenschaftler.

15.12.2023 | 05:26 min
Das Prinzip dahinter ist, dass sie Wort für Wort abschätzen, wie ein Satz weitergehen sollte. Ein Nachteil davon ist, dass die Software manchmal auch völlig falsche Antworten ausgeben kann, selbst wenn sie nur korrekte Informationen als Basis hatte.
Die Software-Entwicklung wird inzwischen aber oft mit KI-Hilfe erfolgreich automatisiert.
Quelle: AFP, dpa

Themen

Mehr zum Thema Künstliche Intelligenz