网站首页| 网站地图| RSS

中国网圈网| 加入收藏夹 设为首页

热门关键字: 创新产业央企国企创业乡村振兴大湾区大数据企业天辰

利富塑电
御美养生美容
金煌装饰
雷格设计

企业发布

首页 > 企业发布 > 详细内容

IBM 宣布在 watsonx 上提供开源的 Mistral AI 模型----扩大模型选择范围,帮助企业以可信和灵活的方式扩展 AI

2024/3/11 16:49:47 来源:中国企业新闻网

导言:近日,​IBM宣布,由Mistral AI公司开发的广受欢迎的开源Mixtral-8x7B大型语言模型(LLM)已经可在其watsonx人工智能与数据平台上使用。

  近日,IBM宣布,由Mistral AI公司开发的广受欢迎的开源Mixtral-8x7B大型语言模型(LLM)已经可在其watsonx人工智能与数据平台上使用。

  IBM_watson_x_social

  IBM 提供了 Mixtral-8x7B 的优化版本,在内部测试中,与常规模型相比,该版本能够将吞吐量(即在给定时间段内可处理的数据量)提高50%[i]。这可能可以将时间延迟减少 35-75%,从而加快获得洞察的时间,具体取决于批处理量的大小。这是通过一个称为量化的过程来实现的,该过程减少了 LLM 的模型大小和内存需求,进而可以加快处理速度,有助于降低成本和能耗。

  Mixtral-8x7B 的加入扩展了 IBM 的开放、多模型战略,随时随地满足客户的需求,并为他们提供选择和灵活性,使其可以跨业务来扩展其企业级人工智能解决方案。通过数十年的人工智能研发、与 Meta和 Hugging Face开放式协作,以及与模型领导者的合作伙伴关系,IBM 正在扩展其 watsonx.ai 模型目录,并引入新的功能、语言和模式。

  IBM 的企业就绪基础模型选择及其 watsonx 人工智能和数据平台可帮助客户利用生成式人工智能获得新的洞察力和效率,并基于信任原则创建新的业务模式。IBM 可帮助客户根据所针对的业务领域(如金融)的合适用例及性价比目标来选择合适的模型。

  Mixtral-8x7B 结合了稀疏建模与专家混合技术来构建,"稀疏建模"是只查找和使用数据中最重要部分以创建更高效的模型的创新技术;而"专家混合技术"是把擅长并解决不同部分问题的不同模型("专家")结合在一起的技术。Mixtral-8x7B 模型因其能够快速处理和分析海量数据以提供与上下文相关的见解而广为人知。

  IBM 软件公司产品管理与增长高级副总裁Kareem Yusuf 博士表示:"客户要求在部署最适合其独特用例和业务要求的模型时拥有选择权和灵活性。通过在watsonx上提供Mixtral-8x7B和其它模型,我们不仅为客户提供了部署人工智能的可选性,还为人工智能构建者和业务领导者提供了一个强大的生态系统,使他们能够利用工具和技术推动不同行业和领域的创新。"

  在同一周,IBM还宣布在watsonx上提供由ELYZA公司开源的日本LLM模型ELYZA-japanese-Llama-2-7b。IBM 还在 watsonx 上提供 Meta 的开源模型 Llama-2-13B-chat 和 Llama-2-70B-chat 以及其它第三方模型,未来几个月还将推出更多模型。

  有关IBM 未来方向和意图的声明如有更改或撤回,恕不另行通知,仅代表目标和目的。

免责声明:

※ 以上所展示的信息来自媒体转载或由企业自行提供,其原创性以及文中陈述文字和内容未经本网站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本网站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。如果以上内容侵犯您的版权或者非授权发布和其它问题需要同本网联系的,请在30日内进行。
※ 有关作品版权事宜请联系中国企业新闻网:020-34333079 邮箱:cenn_gd@126.com 我们将在24小时内审核并处理。

分享到:
[责任编辑:姚小冰]
更多新闻,请关注
中国企业新闻网

标签 :

网客评论

关于我们 | CENN服务 | 对外合作 | 刊登广告 | 法律声明 | 联系我们 | 手机版
客户服务热线:020-34333079、34333137 举报电话:020-34333002 投稿邮箱:cenn_gd@126.com
版权所有:中国企业新闻网 运营商:广州至高点网络科技投资有限公司 地址:广州市海珠区江燕路353号保利红棉48栋1004

粤ICP备12024738号-1 粤公网安备 44010602001889号