AIのプロンプトが学者を騙し、研究に肯定的なコメントしか与えない

AIのプロンプトが学者を騙し、研究に肯定的なコメントしか与えない

トピック — 人工知能

出版

メーガン・クラウスの画像

コロンビア大学を含む世界14の学術機関による17の研究論文に、隠されたAIプロンプトが見つかったと報じられている。

授業をしている大学教授。
画像: seventyfourimages/Envato

日経新聞が7月に報じたところによると、8カ国14の学術機関の研究者らが、AIツールを使用する査読者を欺き、肯定的なフィードバックを得るため、研究論文にAIのプロンプトを隠していた。彼らは米国、日本、韓国、中国などの論文を審査した。対象となった論文のほとんどはコンピューターサイエンス分野だった。

合計で 17 件の論文にこのテーマが含まれており、その中にはワシントン大学とコロンビア大学からの論文も含まれています。

AIプロンプトは白い文字または小さなフォントで書かれています

日経によると、これらの論文はすべて正式な査読を受けておらず、学術研究プラットフォーム「arXiv」に投稿されたという。

査読者は、論文の評価においてAIツールを使用することが一般的に禁止されています。これは、人間の経験と知識が、厳密な論文と杜撰な論文を区別するからです。査読済み論文を出版することは、論文を査読することと同様に、研究者のキャリアにとって有益です。

しかし、3月にネイチャー誌に掲載された研究によると、研究者の約19%が査読プロセスの一部で大規模言語モデルを使用していると答えています。

隠されたプロンプトは、大規模言語モデル(LLM)ツールに直接語りかけるように設計されていました。白い文字または非常に小さなフォントで隠されたプロンプトは、LLMに論文の良い点のみについての出力を提供するよう指示していました。もう一つの隠されたチートプロンプトは、AI査読者に論文の「影響力のある貢献、方法論の厳密さ、そして並外れた新規性」について言及するよう指示していました。

論文執筆や査読におけるAIの使用はセキュリティリスクやその他の懸念をもたらす

Nature誌は、査読付き学術研究論文に生成AIを使用すると、クラウド上にホストされたAIと機密情報を共有すると潜在的な脆弱性が生じる可能性があると指摘した。民間の法学修士課程(LLM)を利用する場合でも、学術的厳密さの基準に違反する可能性がある。

「法学修士号(LLM)を使ってレビューを書くということは、レビューの労力を費やすことなく、レビューの評価を望んでいるというサインだ」と、モントリオール大学の生物多様性研究者ティモシー・ポワゾ氏はガーディアン紙が引用した2月のブログ記事に書いている。

隠されたプロンプトを、一種のAIユーザー同士の戦争と捉える人もいる。日経新聞は、原稿の共著者の一人が「これは、AIを使う『怠惰な査読者』に対する対抗手段だ」と匿名で述べたと報じている。

学術界や学校におけるAIのより広範な活用

生成型AIは、この技術に対する文化的な受容の高まりを反映して、学術界のあらゆるレベルで普及しています。同時に、各大学は、生成型AIの活用方法を明確にしながら、最先端技術の維持を目指し、AIに関するポリシーの策定と改訂を進めています。

2,300 万ドルの画期的な取り組みにおいて、Microsoft、OpenAI、および Anthropic は教育者向けの AI トレーニング センターへの資金援助を行っています。

記事をシェア
メーガン・クラウスの画像

ミーガン・クラウス

メーガン・クラウスは、B2Bニュースおよび特集記事の執筆で10年の経験を有し、Manufacturing.netのライター、そして後に編集者として活躍しました。彼女のニュース記事や特集記事は、Military & Aerospace Electronics、Fierce Wireless、TechRepublic、eWeekに掲載されています。また、Security Intelligenceではサイバーセキュリティに関するニュースや特集記事の編集も担当しました。フェアリー・ディキンソン大学で英文学の学位を取得し、クリエイティブライティングを副専攻しました。

Tagged: