Stable Diffusion的完整指南:核心基础知识、制作AI数字人视频和本地部署要求 Stable Diffusion是一种扩散模型(diffusion model)的变体,叫做“潜在扩散模型”(latent diffusion model; LDM)。扩散模型是在2015年推出的,其目的是消除对训练图像的连续应用高斯噪声,可以将其视为一系列去噪自编码器。Stable Diffusion由3个部分组成:变分自编码器(VAE)、U-Net和一个文本编码器。添加和去除高斯噪声的过程被应用于这个潜在表示,然后将最终的去噪输出解码到像素空间中。在前向扩散过程中,高斯噪声被迭代地应用于压缩的潜在表征 阅读全文 → 2023-09-17
揭秘英伟达A100、A800、H100、H800 GPU如何实现高性能大模型的百倍训练加速 本文主要介绍大模型的内部运行原理、我国算力发展现状。大模型指具有巨大参数量的深度学习模型,如GPT-4。其通过在大规模数据集上进行训练,能够产生更加准确和有创造性的结果。大模型的内部运行原理包括输入数据的处理、多层神经网络计算和输出结果生成。这些模型通常由数十亿个参数组成,需要庞大的计算资源和高速的存储器来进行训练和推理。 阅读全文 → 2023-09-09
如何在SAM时代下打造高效的高性能计算大模型训练平台 Segment Anything Model (SAM)是Meta 公司最近推出的一个创新AI 模型,专门用于计算机视觉领域图像分割任务。借鉴ChatGPT 的学习范式,将预训练和特定任务结合在一起,从而显著提升模型的泛化能力。SAM 的设计初衷是简化图像分割的过程,减少对专业建模知识的依赖,并降低大规模训练所需的计算资源。 阅读全文 → 2023-08-21
英伟达 H100 vs. 苹果M2,大模型训练,哪款性价比更高? 训练和微调大型语言模型对于硬件资源的要求非常高。目前,主流的大模型训练硬件通常采用英特尔的CPU和英伟达的GPU。然而,最近苹果的M2 Ultra芯片和AMD的显卡进展给我们带来了一些新的希望。 阅读全文 → 2023-07-28
探索大模型世界的多元算力:CPU、GPU与算存互连的复杂比较与重要性分析 据科技部新一代人工智能发展研究中心发布的报告显示,我国已发布79个参数规模超过10亿的大模型,几乎形成了百模大战的局面。在大模型研发方面,中国14个省区市都在积极开展工作,其中北京拥有38个项目,广东拥有20个项目。 阅读全文 → 2023-07-06
通往AGI之路:揭秘英伟达A100、A800、H800、V100在高性能计算与大模型训练中的霸主地位 英伟达前段时间发布GH 200包含 36 个 NVLink 开关,将 256 个 GH200 Grace Hopper 芯片和 144TB 的共享内存连接成一个单元。除此之外,英伟达A100、A800、H100、V100也在大模型训练中广受欢迎。AMD MI300X 其内存远超120GB的英伟达GPU芯片H100,高达192GB。 阅读全文 → 2023-06-29