弗朗西斯卡Lazzeri

导演,微软

    Francesca Lazzeri博士是一位经验丰富的科学家和机器学习从业者,拥有超过12年的学术和行业经验。她是《用Python进行时间序列预测的机器学习》(Wiley)一书和许多其他出版物的作者,包括技术期刊和会议。

    Francesca是哥伦比亚大学人工智能和机器学习的兼职教授,也是微软首席云倡导者经理,她领导着一个由云人工智能开发者倡导者和工程师组成的国际团队(横跨美国、加拿大、英国和俄罗斯),管理着研究/学术/教育领域的大量客户,并在云上构建智能自动化解决方案。在加入微软之前,她是哈佛大学技术和运营管理部门的研究员。

    过去的会议

    2021年峰会 机器学习和人工智能如何支持抗击COVID-19

    2021年5月27日上午11:35 PT

    在本次会议中,我们将展示如何利用CORD数据集(包含40多万篇关于COVID及相关主题的科学论文),以及自然语言处理和其他人工智能技术的最新进展,以产生新的见解,支持持续对抗这种传染性疾病。

    在我们的谈话中探索的思想是应用现代自然语言处理方法,如命名实体识别(NER)和关系提取到文章的摘要(可能还有全文),从文本中提取一些有意义的见解,并使语义丰富的论文语料库搜索成为可能。我们首先研究了如何使用Kaggle的医疗NER数据集,以及专门版本的BERT (PubMedBERT)作为特征提取器来训练NER模型,以允许自动提取病情名称、药物名称和病原体等实体。仅仅是实体提取就可以为我们提供一些有趣的发现,比如就上述药物而言,COVID治疗方法是如何随着时间而演变的。我们演示了如何使用Azure机器学习来训练模型。

    为了进一步进行调查,我们还调查了预先训练的医疗模型的使用情况,这些模型在Microsoft Azure云上作为用于健康服务的文本分析提供。除了许多实体类型之外,它还可以提取关系(例如所提供的药物剂量)、实体否定以及到一些知名医疗本体的实体映射。我们研究了大规模使用Azure ML对大型论文集合进行评分并存储结果的最佳方法。

    在本节中请注意:
    Dmitry Soshnikov,微软董事
    Francesca Lazzeri,微软董事

    (daisna21-sessions-od)

    2020年欧洲峰会 模型公平性和可解释性在人工智能系统中的重要性

    太平洋时间2020年11月17日下午04:00

    注:这是6月Spark + AI峰会高度评价会议的重播。享受吧!

    机器学习模型的公平性和可解释性对于数据科学家、研究人员和开发人员解释他们的模型并理解他们发现的价值和准确性至关重要。可解释性对于调试机器学习模型以及就如何改进它们做出明智的决定也很重要。在本节课中,弗朗西斯卡将介绍一些方法和工具,使您能够“解包装”机器学习模型,深入了解它们如何以及为什么产生特定的结果,评估您的AI系统的公平性,并减轻任何观察到的公平性问题。

    使用开源的公bob下载地址平性和可解释性软件包,与会者将学习如何:

    • 通过为整个模型和/或单个数据点生成特征重要性值来解释模型预测。
    • 在训练和推理期间,在大规模的真实世界数据集上实现模型可解释性。
    • 使用交互式可视化仪表板在训练时发现数据和解释中的模式。
    • 利用额外的交互式可视化来评估哪些用户组可能受到模型的负面影响,并在公平性和性能方面比较多个模型。

    主讲人:弗朗西斯卡·拉泽里

    2020年峰会 模型公平性和可解释性在人工智能系统中的重要性

    2020年6月23日下午05:00 PT

    机器学习模型的公平性和可解释性对于数据科学家、研究人员和开发人员解释他们的模型并理解他们发现的价值和准确性至关重要。可解释性对于调试机器学习模型以及就如何改进它们做出明智的决定也很重要。在本节课中,Francesca将介绍一些方法和工具,使您能够“unpack—机器学习模型,深入了解它们如何以及为什么产生特定的结果,评估您的AI系统的公平性,并减轻任何观察到的公平性问题。

    使用开源的公bob下载地址平性和可解释性软件包,与会者将学习如何:

    • 通过为整个模型和/或单个数据点生成特征重要性值来解释模型预测。
    • 在训练和推理期间,在大规模的真实世界数据集上实现模型可解释性。
    • 使用交互式可视化仪表板在训练时发现数据和解释中的模式。
    • 利用额外的交互式可视化来评估哪些用户组可能受到模型的负面影响,并在公平性和性能方面比较多个模型。
    弗朗西斯卡Lazzeri