AI 大模型在带来诸多优势的同时,也面临着不少风险与挑战。技术成熟度方面,大模型的算法可能会局限并导致内容失真,算力不足导致效率过低。医学数据质量与安全风险在于模型训练的数据质量不高,存在隐私风险。医疗服务公平性风险在于模型生成的内容存在虚假、错误,以及算法偏见导致的不公平。大模型的安全风险主要体现在无害性和诚实性两个方面,有害信息包括价值偏见、隐私泄露等,不实信息误导方面包含虚假信息、伪造和欺诈性内容等。生成式大模型特有的预训练、微调、上下文、提示、思维链 COT 等新的学习范式,使其安全具有了与传统 AI 安全不同的许多新特点,传统安全方法、经验、工具在大模型安全领域很难发挥效能。大模型在数据准备、预训练、微调对齐、推理以及应用阶段都会存在各种潜在的风险。