最近の学術研究により、プログラミングとサイバーセキュリティの分野における先進的な人工知能モデル、特に OpenAI の GPT-4 の、懸念事項ではあるものの、いくつかの説得力のある機能が明らかになりました。
アメリカの大学のチームによって実施されたこの研究は、このような AI ツールがサイバーセキュリティ防御を支援するだけでなく、逆にサイバー攻撃を促進する可能性があることを強調しています。
脆弱性を悪用する AI の可能性
研究の焦点は、GPT-4 を含むさまざまな AI モデルが、ソフトウェアの脆弱性を悪用するために公開されているセキュリティ データをどのように効果的に利用できるかを評価することでした。研究者らは、Common Vulnerabilities and Exposures (CVE) レジストリ (ソフトウェア コンポーネントの既知のセキュリティ脅威をリストする公的資金提供のデータベース) からの 15 件の脆弱性のデータセットを使用しました。
驚くべきことに、GPT-4 はこれらの脆弱性の 87% を悪用できました。これは、GPT-0 などの以前のバージョン、その他の大規模言語モデル (LLM)、および ZAP などの一般的なオープンソース脆弱性スキャナーによる悪用率が 3.5% だったのとは対照的です。そしてメタスプロイト。この効率性は、複雑なデータセットに対する GPT-4 の高度な理解を示すだけでなく、現実世界のサイバーセキュリティ アプリケーションにおける GPT-XNUMX の潜在的な有用性も示しています。
倫理的およびセキュリティへの影響
この機能は素晴らしいものですが、同時に多くの倫理的およびセキュリティ上の懸念も引き起こします。 CVE リストのアクセシビリティは、透明性と全体的なサイバーセキュリティの向上に必要である一方で、GPT-4 のような AI システムがこのデータにアクセスして悪意のある活動を支援する可能性があることも意味します。この研究は、協調的なセキュリティに必要なオープン性と、AI システムによる同じ情報の潜在的な悪用を軽減する必要性とのバランスをどのようにとればよいのかという重要な疑問を浮き彫りにしています。
費用対効果の高いサイバーセキュリティ、それともサイバー犯罪用のツール?
この研究のもう 4 つの重要な発見は、サイバーセキュリティ タスクに GPT-4 のような AI を使用する場合の費用対効果です。この調査では、GPT-8.80 を使用してサイバー攻撃を成功させる場合の費用はわずか 2.8 ドルで、同じ作業に人間のサイバーセキュリティ専門家を雇うよりも約 XNUMX 倍安くなると推定されています。このコスト効率により、サイバーセキュリティ戦略に革命が起こり、組織が高度な防御メカニズムをより利用しやすくなる可能性があります。ただし、同様に低コストのサイバー攻撃のリスクももたらし、これらの脅威の頻度と巧妙化が高まる可能性があります。
今後の方向性と推奨事項
オープンアクセスの利点が潜在的なリスクを上回るため、この調査では CVE リストへのアクセスを制限することは示唆されていません。代わりに、サイバーセキュリティなどの機密分野での高度な機能を備えた LLM の展開に対して、より微妙なアプローチが必要です。これには、潜在的な規制措置、AI 活動の監視強化、安全かつ倫理的な AI の使用に関する継続的な研究が含まれます。
まとめ
この研究結果は、サイバーセキュリティにおける AI の諸刃の性質についての深い洞察を提供します。 AI はデジタル インフラストラクチャを保護する能力を大幅に強化できますが、その悪用を防ぐために慎重な管理も必要です。 AI が進化し続けるにつれて、その可能性を責任を持って活用し、AI が私たちに対する武器ではなく保護のツールとして機能するようにするための戦略も必要となります。