Microsoft erlaubt generativer KI, Cybersicherheit zu verschenken

Microsoft erlaubt generativer KI, Cybersicherheit zu verschenken

Bildnachweis: Jean-Luc Echard / Getty Images

Als Teil seines kontinuierlichen Bestrebens, generative KI in alle seine Produkte einzufügen, stellte Microsoft heute vor Sicherheits-Co-Pilotein neues Tool, das Bedrohungsinformationen „zusammenfassen“ und „verstehen“ soll.

In einer detailarmen Ankündigung bot Microsoft Security Copilot an, um Daten mit Angriffen zu korrelieren und gleichzeitig Sicherheitsvorfälle zu priorisieren. Unzählige Tools tun dies bereits. Aber Microsoft argumentiert, dass Security Copilot, das sich in die bestehende Suite von Sicherheitsprodukten integrieren lässt, durch die generativen KI-Modelle von OpenAI – insbesondere das kürzlich eingeführte GPT-4 für die Textgenerierung – noch besser wird.

„Um den Stand der Sicherheit zu verbessern, sind sowohl Menschen als auch Technologie erforderlich – menschlicher Einfallsreichtum in Kombination mit hochmodernen Tools, die helfen, menschliches Fachwissen schnell und in großem Umfang anzuwenden“, sagte Charlie Bell, Executive Vice President von Microsoft Security, in einer vorgefertigten Erklärung . „Mit Security Copilot bauen wir eine Zukunft auf, in der jeder Verteidiger mit den Tools und Technologien ausgestattet ist, die er benötigt, um die Welt zu einem sichereren Ort zu machen.“

Seltsamerweise hat Microsoft nicht genau bekannt gegeben, wie sich Security Copilot in GPT-4 integrieren wird. Stattdessen wird ein trainiertes benutzerdefiniertes Modell – möglicherweise basierend auf GPT-4 – hervorgehoben, das Security Copilot-Software unterstützt, die „einen wachsenden Satz sicherheitsspezifischer Fähigkeiten enthält“ und „Fähigkeiten und Abfragen bereitstellt“, die für die Cybersicherheit relevant sind.

Microsoft betonte, dass das Modell nicht auf Kundendaten trainiert wurde, und ging auf eine häufige Kritik an Diensten ein, die auf das Sprachmodell angewiesen seien.

Dieses angepasste Formular hilft „zu entdecken, was andere Ansätze möglicherweise übersehen“, behauptet Microsoft, indem es sicherheitsbezogene Fragen beantwortet, Ratschläge zur besten Vorgehensweise gibt und Ereignisse und Prozesse zusammenfasst. Angesichts der unaufrichtigen Tendenzen textgenerierender Modelle ist jedoch unklar, wie effektiv ein solches Modell in der Produktion wäre.

Siehe auch  Spielmaterial von Star Citizen Squadron 42 ist geleakt, das den Einzelspielermodus des Spiels zeigt

Microsoft selbst gibt zu, dass das benutzerdefinierte Security Copilot-Modell nicht immer alles richtig macht. Das Unternehmen schrieb, dass „durch künstliche Intelligenz generierte Inhalte Fehler enthalten können“. „Während wir weiterhin aus diesen Interaktionen lernen, modifizieren wir ihre Antworten, um kohärentere, relevantere und nützlichere Antworten zu erstellen.“

Hoffentlich verschlimmern diese Fehler nicht ein schlimmes Sicherheitsproblem.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert