当前位置:首页 >> 行情

保护大模型应用确保,现在不需要拿性能做代价了 | 最“in”大模型

来源:行情   2024年01月16日 12:16

>;也用私有数据集顺利进行全方位基础训练的大假设不仅包含私有数据集信息,其查阅本身也很强该软件性,尤其是基于边端的非前提生存环境布防。

基于微处理器® SGX/TDX 的 TEE 可为大假设备有来得前提的调试生存环境,在数据集上传数位前,查阅可先通过零售商端对传输内容数字签名,数位只需在微处理器® SGX/TDX 中都查阅问题,然后可用大假设的逻辑推理增值中都,并将所得结果在数位的 TEE 中都数字签名后传输回本地零售商端。

在整个文书工作方式上中都,零售商端以外的数据集和调试激发态程序均处于密激发态生存环境中的都,效率远远低于其他基于纯密码学的解决建议。

迄今像 LLAMA 7B、ChatGLM 6B 等假设都可以在该 TEE 建议上依赖于实时可交互安全性的调试。

三幅 2 展示了;也用 LLM 布防知识问答的详见设计。

基于微处理器® SGX/TDX 的 TEE 为实际布防 LLM 中都的自有知识产权管控备有了一套完备的建议,建模整个假设在查阅、传输和逻辑推理步骤中都的前提管控。

△三幅 2. 基于 TEE 的大语法假设私密问答

4.1.2. 美利坚合众国研读

借助基于 TEE 的美利坚合众国研读解决建议2 (见三幅 3),就可在多机构之间充分利用基于 NLP 的浅层研读,例如;也用 BERT 的命名体识别。在金融机构和医疗等大型企业缓解准确度,充分利用多机构数据集互通,同时来得好避免数据集。

此建议中都每个加入方包含一个 Avalon3 管理者接口和 Gramine 文书工作扭矩,均调试在微处理器® SGX 的前提属地中都,在管理者接口彼此间的远程认证完成督导后,无需重启美利坚合众国研读步骤,加入方在本地;也用各自的数据集集顺利进行基础训练,然后将位移上传至裂解方,裂解方顺利进行裂解后将平均位移上报至各加入方,以继续顺利进行下一轮基础训练。

对比三幅 4 下三幅的 BERT + CRF 假设4 ,此建议可以在来得进一步该软件管控的同时,让安全性损失维持在 50% 以下2 。

△三幅 3. 基于 TEE 的美利坚合众国研读

三幅 4. BERT + CRF 假设4

4.2. BigDL:端到端大假设和 TEE 糅合的建议

据大型企业其他用户反馈,LLM 在端到端应用领域中都的痛点包括:

硬件栈复杂,难以前提端到端应用领域的前提。LLM 的基础训练和逻辑推理;也仰赖较多的硬件栈、增值和嵌入式。为管控其他用户数据集和假设产权,需前提每个环节的前提性(不同嵌入式、调试生存环境、网络和打印等)。计算出来量大,且对安全性脆弱。LLM 的计算出来量极其大,需过渡到充足多的安全性建模。但是,不同假设、该平台和硬件栈须要;也用不同的建模建议,要在特定该平台上充分利用来得理想的安全性,须要但会的安全性调优。

为解决这些痛点,由微处理器主导的Ubuntu项目 BigDL,近期就热卖了针对 LLM 的该软件管控建议,其两大主要机能为:

备有端到端的前提管控:在不改动编译器的情形,为单机和分布式的 LLM 应用领域备有端到端的前提管控机能。说明包括,基于微处理器® SGX/TDX 的 TEE、远程断言、统一的密钥管理者接口和透明的加 API 等。充分利用一站式安全性建模:BigDL Nano 备有的针对 LLM 的一站式安全性建模建议,可让现有 LLM 应用领域在仍然不用改动编译器的情形得益于微处理器® AMX、微处理器® AVX-512 和微处理器® Extension for PyTorch。同时,其他用户还可利用 BigDL Nano 备有的 LLM API,快速构建应用领域。

△三幅 5. BigDL 端到端前提的大假设建议

如三幅 6 下三幅,在应用领域了 PPML(Privacy Preserving Machine Learning,该软件管控的自然语法处理)备有的前提核心技术后,由于来得强的前提和该软件管控才会产生额外开支,因此端到端应用领域安全性才会略有升高;但应用领域了 BigDL Nano 备有的建模机能后,端到端的安全性取得了显著缓解*,总体安全性甚至低于没有任何管控的明文安全性。

△三幅 6. BigDL PPML + Nano 端到端安全性损失说明情况

迄今,该建议已经Ubuntu,并开始陆续交付给大型企业零售商顺利进行测试和集成5 。

5. 将来趋势

TEE 备有了该软件管控和数据集前提机能的创新解决建议,将在 LLM 实际合上步骤中都扮演重要角色。

通过将二者糅合,可来得好地保障数据集在基础训练和逻辑推理步骤中都的完备性,增强对无权批准后到访和假设结果篡改的强攻。

然而,在 TEE 中都管控其他用户该软件的同时,须要连续性安全性期望,随着大假设对于计算出来期望的大幅缓解,算力可能才会督导在异构嵌入式上,TEE 和异构嵌入式的混合将成为将来发展趋势。

随着 CPU 安全性的缓解以及外置 AI 加快核心技术的升级和来得新,在便捷布防的布景下,CPU 才会是大假设逻辑推理和 TEE 混合的首选,在基础训练的布景下,基于 CPU 的 TEE 混合异构嵌入式的数字签名大力支持,则才会是大假设基础训练甚至大假设美利坚合众国基础训练的核心技术方向。

微处理器将一如既往地以软硬混合的的产品核心技术配对促进开发者加入,主导 LLM 与 TEE 的糅合。

作者简介:

微处理器公司 AI 架构师俞巍,微处理器公司该平台前提资深架构师李志强,微处理器公司前提硬件研发工程师李青青,微处理器公司硬件架构师龚奇源,都在从事 AI 和 SGX/TDX 方面文书工作。

的产品和安全:1 SGX/TDX: 2 Wei Yu. et al. 2022, TEE based Cross-silo Trustworthy Federated Learning Infrastructure, FL-IJCAI’223 4 Souza, F., Nogueira, R. and Lotufo, R. 2020, Portuguese Named Entity Recognition using Bert-CRF, arXiv.org(商量参见 )5 安全性建模效果与说明该平台、假设和生存环境有关

— 完 —

量子位 QbitAI · 美联社号签约

类风湿关节炎疼痛如何缓解
苏州看皮肤病哪里好
腰椎间盘突出怎么快速止痛
早上起床手指关节僵硬
心肺复苏模拟人模型厂家
友情链接