主页数据+人工智能峰会2023标志
旧金山6月每股26到29
虚拟的,6月28 - 29日
现在注册

大型语言模型(LLM)

现在注册

深入探究万物LLM——从每天面对面培训,社区会议关注LLM工具和使用负责,对砖开源模式多莉的专门会议,LLMOps等等。

会话

构建和部署大型语言模型在砖|的带薪培训

大型语言模型ChatGPT和多莉已经席卷了全球。每个人都从研究者和工程师到商业领袖是急于了解如何利用大型语言模型的最新发展(llm)。本课程旨在教授个人如何利用llm实际用例,包括流行的主题,如变压器、伯特和GPT。通过互动讲座和练习中,您将学习如何开发、实施、评估和部署llm砖。

把这个会话中目录

测试生成的人工智能模型:你需要知道什么

对于企业应用程序生成人工智能显示了令人难以置信的承诺。的爆炸生成人工智能可以归因于几个因素的集合。最重要的是,人工智能应用程序开发人员的门槛已经通过可定制的提示(few-shot学习),使非专业人员能够生成高质量的内容。模型的灵活性ChatGPT和DALLE-2引发了好奇心和创造力的新应用程序,他们可以支持。工具的数量将继续增长的方式类似于AWS推动应用程序开发。但兴奋必须破坏新风险对商业和社会的担忧。也增加能力和采用增加风险。随着组织探索创造性生成模型的边界,降低风险的措施必须落实到位。然而,巨大的输入空间的大小和固有的复杂性使这个任务比传统ML模型更具挑战性。

在这个会话中,我们总结了新的风险引入的新类的生成基础模型通过几个例子,并比较这些风险如何与主流歧视的风险模型。可以采取措施降低运营风险,偏见和公平问题,隐私和安全的系统,利用LLM自动化。幻觉,我们将探讨模型输出评估,输出偏差,及时注射,数据泄漏特性转化等等。我们将讨论一些更大的问题常见llm并展示如何测试。一个全面的、基于生成人工智能开发的方法将有助于培养模型的完整性,主动缓和失败和相关的业务风险。

Yaron歌手,首席执行官和共同创始人,健壮的情报

把这个会话中目录

迅速扩展应用人工智能/毫升与基本模型,应用现代人工智能/毫升用例

今天我们很多人都熟悉如LLM / ChatGPTl基本模型。然而,有很多企业的基本模型,可以快速部署、培训和应用企业用例。这种方法极大地提高AI /毫升的性能模型在生产,但也给AI团队快速路线图对业务效率和交付价值。砖提供理想的工具集来支持这种方法。在这次会议中,我们将提供一个逻辑上的概述基本型号今天,展示一个真实的用例,并提供一个业务框架数据科学家和商界领袖合作快速部署这些用例。

创始人及首席执行官尼克•王动力学数据

把这个会话中目录

如何审计语言模型

语言模型像ChatGPT难以置信的研究突破但需要审计和风险管理在随笔。这些系统提高相关毒性的关注,透明度和再现性、知识产权许可和所有权,dis - &错误信息,供应链和重要的碳足迹。如何你的组织。利用这些新工具没有承担不必要的或未知的风险吗?

最近的公共参考工作In-Q-Tel实验室& 5。AI细节审计的命名实体识别(尼珥)应用程序基于pre-trained语言模型罗伯塔。如果你有一个语言模型用例记住&想要了解你的风险,本课程将介绍:

  • 使用人工智能研究的过去事件事件数据库,并利用这些信息来指导调试。
  • 发现和解决常见的数据质量问题。
  • 公众应用工具和适当的基准(如清单,强力胶,舵)。
  • Binarizing特定任务&调试使用传统模型测试评估和偏见。
  • 构建敌对攻击基于模型的最重要的风险,分析结果在性能方面,情绪和毒性。
  • 测试性能,情绪和毒性不同和不太常见的语言。
  • 进行随机攻击:攻击的随机序列,提示或其他测试,可能会引起意想不到的反应。
  • 不要忘记安全:审计代码后门&中毒的训练数据,确保端点保护认证&节流和分析第三方依赖关系。
  • 参与利益相关者来帮助发现问题系统设计师和开发人员无法看到。

现在是时候找出如何生活与人工智能,这意味着审计、风险管理和监管。

首席科学家帕特里克·霍尔,BNH.AI

把这个会话中目录

可说明的数据为NLP漂移

检测数据漂移,虽然远没有解决对表格数据,已成为一个惯例来监控毫升模型在生产。另一方面对自然语言处理问题仍然开放。在这次演讲中,我们将介绍并比较两种方法。首先,我们将演示如何通过提取多种属性解释每个文档等话题,语言,情绪,命名实体,关键字和我们能够探索漂移的潜在来源。我们将展示如何持续跟踪这些属性随着时间的推移,他们如何可以用来检测出有意义的数据一旦发生漂移,以及他们如何可以用来解释和解决问题的根源。第二种方法我们将目前检测漂移通过使用嵌入的共同基础模型(如OpenAI GPT3模型家族)和使用它们来确定区域嵌入空间中发生了明显的漂移。这些领域在嵌入空间中应该表现为一个人类可读的方式使发现漂移的根本原因分析。然后我们将比较这两种方法的性能和explainability,并探索使用每种方法的利弊。

诺姆·布瑞斯勒,Deepchecks毫升团队领导

把这个会话中目录

与基础模型建立AI-powered产品

基础模型为精彩的演示,但在实践中,他们可以挑战投入生产。这些模型工作超过匹配常见的训练数据集分布(如生成web文本或互联网图像),但可能会失败在特定领域的任务或长尾边缘案件(设置最重要的组织构建差异化的产品!我们提出一个以数据为中心的开发方法,组织可以使用基础模型适应自己的私人/专有的数据集。我们将描述一些技术,包括监督“warmstarts”和交互式提示(提示:不需要代码!)。使这些技术来生活,我们步行通过实际案例研究描述我们所看到的以数据为中心的开发驱动AI-powered产品,从“人工智能辅助”用例(例如文案助理)“全自动”解决方案(如贷款处理引擎)。

文森特•陈产品/创始主任工程师,潜水AI

把这个会话中目录

Colossal-AI:缩放AI模型在大模型的时代

大的扩散模型基于变压器超过了硬件的进步,导致迫切需要跨多个gpu分发大量的模型的能力。尽管这种日益增长的需求,选择一个最优策略的最佳实践仍然缺乏在HPC由于所需知识的广度,DL和分布式系统。这些困难激发了AI和HPC开发人员探讨的关键问题:

  • 如何培训和大型模型的推理效率改进降低成本?
  • 如何适应甚至更大的人工智能模型与有限的资源?
  • 如何让更多的社区成员容易访问大型模型和大规模应用程序?

在本课程中,我们研究解决上述问题的努力。首先,不同的并行化是一个重要的工具来提高大型模型训练的效率和推理。异构内存管理模型可以帮助提高住宿像gpu处理器的能力。此外,用户友好的DL系统大型模型显著降低专业背景知识的用户需求,让更多的社区成员开始使用更大的模型更有效。我们将为参与者提供一个系统级的开源解决方案,Colossal-AI。可以找到更多的信息https://github.com/hpcaitech/ColossalAI。

理查德·卡尔博士詹姆斯•Demmel Dehmel特聘教授,加州大学伯克利分校;杨你,总统年轻教授,新加坡国立大学

把这个会话中目录

生成AI大规模使用GAN和稳定的扩散

生成的人工智能是在聚光灯下,不同的应用程序,但也有许多考虑当大规模部署生成模型。本课程将深入了解多个架构和讨论优化黑客生成AI需要的复杂的数据管道。

表示将覆盖:

  • 如何创建和准备培训规模的数据集在单一的GPU和多GPU环境
  • 如何优化你的培训和推理的数据管道生产考虑到深度学习模型比较复杂,需要运行。
  • 高质量输出之间的权衡与训练时间和资源和处理时间。

葆拉·马丁内斯,首席执行官和共同创始人,Marvik;首席技术官和联合创始人罗德里戈Beceiro Marvik

把这个会话中目录