工具&框架
?? 『WeTextProcessing』为中文设计的文本规则化和文本反规则化工具包
https://github.com/wenet-e2e/WeTextProcessing
WeTextProcessing 是一个为中文设计的,可以把文本规则化(比如一些阿拉伯数字的日期、时间和数量转化为中文)和反规则化的工具包。
?? 『Zshot』零样本和少样本命名实体识别与关系识别
https://github.com/IBM/zshot
https://ibm.github.io/zshot/
Zshot 是一个高度可定制的框架,用于零样本和少样本的命名实体识别。可以在指代抽取、将文本指代与维基百科中的实体联系起来等场景发挥作用。
博文&分享
?? 『Serverless ML』从模型和特征开始,构建AI预测Serverless机器学习应用·课程
https://github.com/featurestoreorg/serverless-ml-course
无需成为 Kubernetes 或云计算方面的专家,即可构建端到端服务,并借助 ML 模型做出智能决策。无服务器 ML 可以轻松构建使用 ML 模型进行预测的系统。
只需要能够编写可以作为管道运行的 Python 程序,管道生成的功能和模型由无服务器功能存储/模型注册表管理。课程还将展示如何通过编写 Python 和一些 HTML 来构建 UI。课程包括以下模块:
?? 『Recent Advanced in Vision-and-Language Pre-training』CVPR2022 Tutorial | 视觉-语言的预训练 · 最新进展
https://vlp-tutorial.github.io/2022/
人类通过许多渠道感知世界,例如眼睛看到的图像或耳朵听到的声音。尽管任何单个通道都可能不完整或嘈杂,但人类可以自然地对齐和融合从多个通道收集的信息,以便掌握更好地理解世界所需的关键概念。
人工智能的核心愿望之一是开发算法,使计算机能够有效地从多模态(或多通道)数据中学习。这些数据类似于从视觉和语言中获得的视觉和声音,帮助人类理解我们周围的世界。视觉-语言 (Vision-and-Language,VL) 是一个受欢迎的研究领域,位于计算机视觉和自然语言处理 (NLP) 的结合处,旨在实现这一目标。
数据&资源
?? 『Awesome Diagramming』软件工程团队图表工具大列表
https://github.com/shubhamgrg04/awesome-diagramming
图表可以提供软件设计高级概览,序列图、系统架构图、ER图、甘特图等是工程团队使用最广泛的图表。Repo 考虑了免费、开源、便捷、代码/手绘、视觉外观等要素,汇总了最常用的可视化图表软件。
研究&论文
? 论文:Learning the Spectrogram Temporal Resolution for Audio Classification
论文时间:4 Oct 2022
领域任务:Audio Classification, Classification,音频分类,分类
论文地址:https://arxiv.org/abs/2210.01719
代码实现:https://github.com/haoheliu/diffres-python
论文简介:Starting from a high-temporal-resolution spectrogram such as one-millisecond hop size, we show that DiffRes can improve classification accuracy with the same computational complexity./从高时间分辨率的频谱图开始,如一毫秒的跳动大小,我们表明DiffRes可以在相同的计算复杂度下提高分类精度。
? 论文:One Transformer Can Understand Both 2D & 3D Molecular Data
论文时间:4 Oct 2022
领域任务:Graph Regression, Representation Learning,图回归,表征学习
论文地址:https://arxiv.org/abs/2210.01765
代码实现:https://github.com/lsj2408/Transformer-M
论文简介:To achieve this goal, in this work, we develop a novel Transformer-based Molecular model called Transformer-M, which can take molecular data of 2D or 3D formats as input and generate meaningful semantic representations./为了实现这一目标,在这项工作中,我们开发了一种新型的基于Transformer的分子模型,称为Transformer-M,它可以将二维或三维格式的分子数据作为输入,并生成有意义的语义表示。
论文摘要:与通常具有独特格式的视觉和语言数据不同,分子可以自然地使用不同的化学配方来描述。人们可以把分子看作是一个二维图形,或者把它定义为位于三维空间中的原子集合。对于分子表征的学习,以前的大多数工作只为特定的数据格式设计了神经 络,使得学到的模型对其他数据格式可能会失败。我们认为一个通用的化学神经 络模型应该能够处理跨数据模式的分子任务。为了实现这一目标,在这项工作中,我们开发了一个新的基于Transformer的分子模型,称为Transformer-M,它可以将二维或三维格式的分子数据作为输入,并产生有意义的语义表示。使用标准的Transformer作为骨干架构,Transformer-M开发了两个分离的通道来编码二维和三维结构信息,并将它们与 络模块中的原子特征结合起来。当输入的数据为特定格式时,相应的通道将被激活,而另一个通道将被禁用。通过对具有适当设计的监督信 的二维和三维分子数据进行训练,Transformer-M自动学会利用来自不同数据模式的知识,并正确捕捉表征。我们对Transformer-M进行了广泛的实验。所有的经验结果表明,Transformer-M可以同时在二维和三维任务上取得强大的性能,这表明它具有广泛的适用性。代码和模型将在https://github.com/lsj2408/Transformer-M 上公开。
我们是 ShowMeAI,致力于传播AI优质内容,分享行业解决方案,用知识加速每一次技术成长!
? 点击 电子月刊,快速浏览月度合辑。
声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!