AI 模型如何生成答案?探索“黑箱”内部的奥秘
尽管 AI 模型已在全球广泛使用,但其生成答案的具体推理过程往往难以完全理解。致力于揭示这一“黑箱”奥秘的 AI 学者安娜·卢西奇(Ana Lucic)正致力于开发解释模型内部运作的方法。此外,她也从事天气预报领域的机器学习技术创新。2024 年,卢西奇被任命为阿姆斯特丹大学(University of Amsterdam, UvA)MacGillavry Fellow,同时在逻辑、语言与计算研究所和信息学研究所担任职务。
揭开“黑箱”之谜
当你在谷歌输入搜索查询时,页面顶部常会出现由 AI 生成的答案摘要。这种方式虽然便捷,但生成的内容并非总是准确,并且我们往往无从得知模型得出这些结论的推理路径。因此,这类机器学习模型的内在机制常被称为“黑箱”。阿姆斯特丹大学人工智能讲师安娜·卢西奇正通过开发可解释性方法来应对这一挑战。
这些方法旨在“打开”黑箱,解析机器学习模型内部的决策过程。卢西奇指出,其中最大的挑战在于如何评估这些解释方法的有效性。“当一个模型做出预测,而你开发了一种方法来解释该预测时,如何判断解释是否正确?这并不简单。”她解释道,“评估环节是我们研究领域中一个重要的开放性问题。”
机器学习赋能天气预报
除了可解释性研究,卢西奇也致力于将机器学习技术应用于天气预报。在微软研究院工作期间,她曾是 Aurora 项目的核心开发者之一——这是一个用于全球天气预报的机器学习模型。
传统的天气预报依赖于数值天气预报模型的反复运算,每一步都需要重新执行整个模型,过程既耗时又成本高昂。卢西奇介绍说:“在机器学习方法中,我们利用传统模型生成的数据来训练我们自己的模型。通过这种方式,机器学习模型可以学习并模仿传统模型的行为,同时凭借其高效的计算能力,实现更快速的预测。”
她同时强调,这种方法依然建立在传统模型的输出基础之上,这些传统模型在天气预报中仍扮演着不可或缺的角色。未来,卢西奇希望进一步开发提升天气模型可解释性的方法,并持续优化 Aurora 模型,以实现更精准的长期天气预报。
重返学术界的旅程
卢西奇的职业生涯在学术界与产业界之间交织前行。在取得博士学位后不久,她加入了微软研究院。2024 年 11 月,她受聘为阿姆斯特丹大学 MacGillavry Fellow,同时隶属于两个研究所。
“从学术界到产业界,再回到学术界,无疑需要一定的调整,”卢西奇坦言,“虽然需要同时应对多项任务,但这个过程非常充实。”她特别提到大学环境的一个显著优势:能与从事广泛研究主题的同事深入交流。“尤其是在我所属的两个研究所中,经常接触到各种前沿观点。而在产业界,工作往往更聚焦于特定领域。”

