文章主要内容
本文针对自动语音识别(ASR)纠错任务,提出了一种基于大语言模型(LLM)的三阶段可靠纠错框架 RLLMCF(Reliable LLM Correction Framework),旨在解决直接使用LLM时的幻觉问题(Hallucinations)——即LLM可能错误修改正确文本或生成无关内容。
- 三阶段框架:
- 错误预检测:先判断输入文本是否存在错误,避免LLM修改正确内容。
- 链式思维子任务迭代纠正:将纠错分解为定位错误、生成发音候选、筛选等子任务,通过多轮迭代和置信度评估约束LLM输出空间。
- 推理过程验证:检查LLM输出是否符合格式要求和推理逻辑,拒绝不合理修正。
- 实验结果:在AISHELL-1、AISHELL-2和Librispeech数据集上,使用GPT-4o模型时,