研究:训练数据含0.001%的错误信息足以“毒害”医学AI模型
摘要
【研究:训练数据含0.001%的错误信息足以“毒害”医学AI模型】纽约大学的一项研究揭示了大型语言模型(LLM)在医学信息训练中的潜在风险。研究表明,即使训练数据中仅含有0.001%的错误信息,也可能导致模型输出不准确的医学答案。
纽约大学的一项研究揭示了大型语言模型(LLM)在医学信息训练中的潜在风险。研究表明,即使训练数据中仅含有0.001%的错误信息,也可能导致模型输出不准确的医学答案。
(文章来源:科创板日报)