谷歌 开源LIT:用于NLP模型的可视化,交互式模型理解工具

0
6987
//github.com/pair-code/lit

谷歌 AI研究人员最近发布了其开源工具LIT(语言可解释性工具),用于可视化,审核和理解NLP模型。

LIT专注于有关模型行为的核心问题,例如: 

我的模型为何做出此预测?我的模型在什么样的例子上表现不佳?在输入受控变化下会发生什么?这种预测是归因于对抗行为还是训练集中过于不理想的先验?等等。

广告Coursera Plus标语,包含约翰·霍普金斯大学,谷歌和密歇根大学的课程,突出显示数据科学职业发展的内容

LIT可能对理解模型很有帮助’倾向于根据偏见和启发法行事,并为数据科学家节省时间。 LIT通过基于浏览器的UI支持各种调试工作流,并且以一种方式进行设置,以便用户可以尝试在可视化和分析之间进行选择以测试假设,并在选定的数据集上验证那些假设。

LIT支持各种模型,包括分类,seq2seq和结构化预测。它是通过声明性的,与框架无关的API高度可扩展的。

特征  

  • 当地说明 通过显着图,注意力和丰富的模型预测可视化。
  • 汇总分析 包括自定义指标,切片&装仓和可视化嵌入空间。
  • 反事实的一代 通过手动编辑或生成器插件动态创建和评估新示例。
  • 并排模式 在一对示例中比较两个或多个模型或一个模型。
  • 高度可扩展 新模型类型,包括分类,回归,跨度标签,seq2seq和语言建模。开箱即用地支持多头型号和多种输入功能。
  • 与框架无关 并与TensorFlow,PyTorch等兼容。

Github: //github.com/pair-code/lit

纸: //arxiv.org/pdf/2008.05122.pdf

广告

发表评论

请输入您的评论!
请在这里输入您的名字

该网站使用Akismet减少垃圾邮件。 了解如何处理您的评论数据.