Google CloudのVP, TI Security & CISOであるPhil Venables氏は、最近のGoogle Cloudブログ投稿で、AIベンダーが脆弱性に関する調査を共有することの重要性を強調しています。彼は、AI技術に対する信頼を築くためには、特にその急速な進化を考えると、この透明性が重要であると強調しています。Googleはサイバーセキュリティ調査を真剣に受け止めており、AIのリスクを探求し、より優れたサイバー防御を開発するために多額の投資を行ってきました。注目すべきは、GoogleのCloud Vulnerability ResearchチームがVertex AIでこれまで知られていなかった脆弱性を発見し、修正したことです。Venables氏は、AI開発者に対し、AIセキュリティ調査の共有を標準化するよう促し、生成AIがデフォルトで安全な未来を提唱しています。Google Cloudは、透明性を促進し、洞察を共有し、AIの脆弱性に関するオープンな議論を促進することで、この取り組みをリードすることを目指しています。彼は、脆弱性を隠すことは、他のプラットフォームで同様の問題が存続するリスクを高めるだけだと主張しています。その代わりに、業界は脆弱性の発見と修正を容易にするように努力すべきです。Venables氏は、AIセキュリティの基準を向上させるために集団的な努力を呼びかけ、AIモデルがデフォルトで安全な未来に向けて取り組んでいます。