AIを用いた高精度な不正検知サービスやサイバーセキュリティサービスを開発・提供しているChillStackは、企業の情報システム部門の生成AI導入担当者を対象に、「企業における生成AI利用に関するアンケート」を実施した。
同調査結果の詳細は、次のとおり。
8割超が生成AI導入済または検討中
調査によると、回答企業の48.3%がすでに生成AIを導入済み、33.3%が検討中と回答。導入・検討を合わせると8割を超えた。

生成AI活用、上位は「データ分析」「文書管理」「クリエイティブ制作」
導入企業における活用分野は、「データ分析」(72.4%)、「文書管理」(67.6%)、「クリエイティブ制作」(48.3%)が上位を占めた。

8割が生成AI利用に不安を感じるなか対策は進まず
会社での生成AI利用に対し「不安がある」と回答した人は80%にのぼる(「とてもある」28.3%、「ややある」51.7%)一方、すべてのリスク項目に対して約8割が「対策ができていない」と回答しており、リスク対応の遅れが明らかとなった。


懸念するリスクは1位「誤情報の生成」2位「情報漏洩」3位「法的リスク」
もっとも多かった懸念は「AIが誤った情報や不正確なデータを生成することによる業務への影響」(68.3%)、次いで「社員が個人情報や社外秘情報を入力してしまうことによる、社外への情報漏洩」(64.0%)、「生成AIによる法的リスク」(48.0%)だった。

利用中のトラブルやヒヤリハット経験者は4割超経験あり 機密情報の入力」と「誤情報による業務影響」が事例上位に
会社での生成AIの利用において、生成AIを導入している企業のうち44.1%が過去に「ヒヤリとした」または「トラブルになった」経験があると回答。具体的な内容は、「社員が機密情報を生成AIに入力してしまい、データ漏洩のリスクが発生した」と「生成AIが誤った情報を出力し、業務に影響を与えた」が多かった。


リスク防止策は「ガイドライン整備」「管理・監視体制」「社員教育」 リスクを未然に防ぐ生成AIシステムの導入にも意欲
防止策として挙げられたのは「会社のAIツールの使い方やルールを明確にガイドラインで示すこと」(59.7%)、「設定したガイドラインに従って、AIツールの使用を適切に管理・監視できる体制の整備」(53.7%)、「社員に対するAIの正しい使い方を教えるための教育・啓蒙活動」(50.0%)が中心。
また、トラブル防止に注力したい層のうち88.8%が、リスクを未然に防げる生成AIシステムの導入に意欲を示した。


調査概要
- 調査日:2025年5月20日
- 調査対象:企業の情報システム部門で生成AIの導入・検討を関わる担当者、生成AIの導入に興味がある人
- 有効回答数:300件
- 調査方法:ウェブアンケート
- 調査機関:Freeasy