Der beste Weg für eine KI, Ihre Geheimnisse nicht zu verraten

Der Einsatz von künstlicher Intelligenz wird in einer Vielzahl von Anwendungen eingesetzt, wobei noch Grenzen und Grenzen definiert werden müssen. Eines der Bedenken, die auftreten können, insbesondere im Fall von Konversations-KI vom Typ ChatGPT, ist wie viel sie zählen und wie viel sie schweigen sollten … und diese rote Linie scheint klarer zu sein, als wir denken.

Es gibt ein Sprichwort, das besagt „Ich bin mehr wert für das, was ich schweige, als für das, was ich spreche“ und genau das ist der neue Mehrwert, den man einer KI geben will: Geheimnisse nicht preiszugeben.

Der beste Weg für eine KI, Ihre Geheimnisse nicht zu verraten

So verhindern Sie, dass eine KI Geheimnisse preisgibt

Nehmen Github zum Beispiel, die das KI-Modell von Copilot aktualisiert haben , ein Programmierassistent, der Echtzeit-Quellcode und Funktionsempfehlungen in Visual Studio generiert, und behauptet, dass er jetzt sicherer und leistungsfähiger ist.

Künstliche Intelligenz

Zu diesem Zweck liefert das neue KI-Modell, das diese Woche für Benutzer freigegeben wird, qualitativ bessere Vorschläge in kürzerer Zeit und verbessert die Effizienz von Softwareentwicklern durch eine Erhöhung der Akzeptanzrate weiter. Copilot wird mit diesem Update ein neues Paradigma namens „Fill-In-the-Middle“ einführen, das eine Bibliothek bekannter Codebefehle verwendet und hinterlässt eine Lücke, die das KI-Tool füllen muss , wodurch es relevanter und konsistenter mit dem Rest wird. des Projektcodes.

Eine der bemerkenswertesten Verbesserungen in diesem Copilot-Update ist die Einführung eines neuen Filtersystems für Schwachstellen, das dabei hilft, unsichere Hinweise wie z verschlüsselte Anmeldeinformationen, Pfadinjektionen und SQL-Injektionen . Das Softwareunternehmen sagt, dass Copilot Geheimnisse wie Schlüssel, Anmeldeinformationen und Passwörter generieren kann, die in den Trainingsdaten nach neuartigen Zeichenfolgen suchen. Diese können jedoch nicht verwendet werden, da sie völlig fiktiv sind und durch das neue Filtersystem blockiert werden.

Starke Kritik für das Aufdecken von Geheimnissen

Das Erscheinen dieser Geheimnisse in den Codehinweisen von Copilot hat gezeichnet starke Kritik aus der Softwareentwicklungs-Community, mit vielen Vorwürfen Microsoft große öffentlich zugängliche Datensätze zu verwenden, um seine KI-Modelle ohne Rücksicht auf die Sicherheit zu trainieren, sogar einschließlich Sätze, die versehentlich Geheimnisse enthalten .

Geheimcode Copilot

Durch das Blockieren unsicherer Vorschläge im Echtzeit-Editor könnte GitHub auch einen gewissen Widerstand gegen Dataset-Poisoning-Angriffe leisten, die darauf abzielen, KI-Assistenten verdeckt zu trainieren, Vorschläge zu machen, die bösartige Payloads enthalten.

Derzeit werden die LLMs (Long Learning Models) von Copilot noch darauf trainiert zwischen verwundbaren und nicht verwundbaren Codemustern unterscheiden , daher wird erwartet, dass sich die Leistung des KI-Modells an dieser Front in naher Zukunft allmählich verbessern wird. .