标签:tag2

谷歌2小时疯狂复仇,终极杀器硬刚GPT-4o!Gemini颠覆搜索,视频AI震破Sora

摘要:谷歌在I/O 2024大会上发布了多项更新,包括Gemini 1.5 Pro、Project Astra和文生视频模型Veo等。Gemini 1.5 Pro的上下文长度达到200万token,远超其他...

快速提升性能,如何更好地使用GPU(下)

摘要:本文主要探讨了在GPU成本上升和供应短缺的背景下,如何提升GPU性能的方法。文章首先提到,可以通过将所有任务提交给GPU的异步工作队列(stream)来提升...

OpenAI联合创始人兼首席科学家,官宣离职

摘要:OpenAI的联合创始人兼首席科学家Ilya Sutskever宣布辞职,由Jakub Pachocki接替其职位。Ilya表示将开发新项目,可能与生成式AI相关,而Sam Altman发表...

快速提升性能,如何更好地使用GPU(上)

摘要:本文主要探讨了在GPU成本上升和供应短缺的背景下,如何更有效地使用GPU以提升其性能。文章提出了三个关键点:让GPU保持忙碌、充分利用GPU中的所有资源...

CLIP-Mamba:首次提出用CLIP训练Mamba,仅用1/5参数就达到ViT天花板性能

摘要:本文介绍了利用对比语言-图像预训练(CLIP)训练的Mamba模型,并在26个零样本分类数据集和16个分布外(OOD)数据集上进行了评估。研究发现,6700万参数...

Trio-ViT:专门针对高效 ViTs 的卷积 Transformer混合架构的加速器

本文介绍了一种针对视觉Transformers(ViTs)的量化和加速方法,称为Trio-ViT。该方法旨在解决ViTs在嵌入式设备上部署时面临的模型尺寸大和计算密集的问题。...

美国加州正测试ChatGPT等生成式AI,在4大部门应用

摘要:美国加州政府正在测试生成式AI技术,如ChatGPT,以提高税收和收费管理部、交通部、公共卫生部以及卫生与公众服务部的工作效率。测试为期6个月,由5家公...

自回归预训练 + Vision Transformer!大视觉模型 AIM:70亿参数量是我的底气

本文提出了一种名为Autoregressive Image Models (AIM)的大视觉模型,该模型受到大语言模型(LLM)的启发,采用自回归训练策略进行训练。AIM模型展示了与LLM...

不是Nvidia买不起,只是国产更有性价比!使用全国产CPU和GPU项目开发记录-训练篇—部署篇

摘要:本文详细介绍了如何将真实的客流统计算法从Nvidia环境迁移到国产海光CPU+DCU的部署过程。项目背景是在当前AI技术迅猛发展的背景下,国产AI软硬件也在不...

​NUS团队提出X-Ray:一种看透物体的3D表示和生成模型!

摘要:NUS研究团队胡涛博士等人近期发布了一种全新的3D表示技术——X-Ray,它能够序列化地表示从相机摄像角度看过去的物体的逐层次的物体表面形状和纹理,同时...
123