首页
SEO
建站
经验
技术
运维
系统
编程
商标
主机
域名
行业
互联
博客
更多
搜索
官网首页
短信服务
商标知产
免费建站
域名交易
商标查询
SSL证书
企业服务
商标交易
云计算
企业邮箱
域名注册
智能logo
登录
搜索
未知
累计撰写
1604
篇文章
累计收到
0
条评论
首页
栏目
首页
SEO
建站
经验
技术
运维
系统
编程
商标
主机
域名
行业
互联
博客
更多
互联
2024-7-31
一夜飙涨389亿,京东离不开云计算?
日前,京东公布了2023年第四季度及全年财报。财报显示,第四季度净营收为3061亿元,同比增长3.6%;归属于普通股股东的净利润为34亿元,2022年同期净利润为30亿元;2023年净营收为10847亿元,较2022年增长3.7%;归属于普通股股东的净利润为242亿元,2022年净利润为104亿元。拿下今年春晚独家合作权的刘强东,再创万亿年营收。当晚美股股价从盘前涨超11%、盘中涨近20%,最终收涨16.18%,市值一夜飙涨54亿美元(约合人民币389亿元)。百亿身价的京东宣布要在市场上买下10%的自己(按照大约300亿美元流通市值计算),其会在三年内最多回购30亿美元。 混合云+AI 在众多板块中,京东ToB业务表现其亮眼,全年服务收入达2134亿元,同比增长17.8%。而这份功劳,有京东云一份。京东云一直有自己的“打法”,那就是“AI+云计算”的云智能全价值链产业赋能新战略。京东云将与京东AI业务深度结合,推动产业互联网。从“上云”那一刻开始,京东云便生长在混合多云的环境中。立足混合云+AI的京东云,在2021年发布了行业首个混合多云操作系统“云舰”。云舰将混合多云的管理推向前所未有的操作系统级别,可全面兼容全球范围各类基础设施,实现混合基础设施最全面最彻底的管理与调度。去年7月,云舰升级到了3.0版本。该版本拥有更加极致的稳定可靠性、更丰富更开放的生态、更先进的计算池化技术、更广泛兼容的多云多芯多活,可以更好的满足产业各类数字化转型的需求。它也成为了行业首批通过中国信通院混合云综合能力评测,位列最高等级。 江湖气的京东 除云舰3.0外,京东云还推出了更适合产业“体质”的言犀大模型。京东云不强调“通用”,而是用自家数据训练自家模型,即融合了70%通用数据与30%数智供应链原生数据,专注于解决真实的产业问题。同时,为了降低使用门槛,京东云基于言犀大模型解耦出的底层能力,推出了言犀AI开发计算平台。在言犀AI开发计算平台上,之前需要10余人的科学家团队工作,现在只需要1-2个算法人员,且可完成从数据准备、模型训练到模型部署的全流程,训练效率提升2倍,推理提效6.2倍,成本节约近90%。多快好省的京东,实现了真正的MaaS。第十四届全国人民代表大会第二次会议上,京东集团技术委员会主席、京东云事业部总裁曹鹏今年提交了多份提案,其中包括“鼓励国产算力软硬协同,支持大模型创新与应用”;“要以国产化算力底座推动新质生产力发展”等。曹鹏表示,京东云基于多年在多个产业中的“摸爬滚打”,构建出以先进计算体系为代表的新质生产力,并已广泛应用于互联网、金融、政务、能源、交通等领域,为千行百业不同需求的客户提供更加安全稳定、超强性能、极致降本的产品和服务。一身“江湖气”的京东云扎深产业,不做“浮云”。 写在最后 如果说电商是京东的第一战场,那么云计算便是它的第二战场。在这个战争上,京东毫不畏缩。前几日,继阿里云宣布“史上最大力度”降价后,京东云直接硬钢,承诺比特定云厂商在其最低实际成交单价基础上再低10%,并喊出“随便降,比到底,买贵就赔”。一直以来,京东云是京东所有业务中的“小透明”,其存在是为了更好服务其他业务。后来,京东云又作为上市助推器,与京东数科合并,但后者上市遥遥无期,前者也没什么存在感。然而每次云厂商的博弈,京东云却从未缺席。京东离不云,就像鱼离不开水。“江湖气”十足的京东云必将在这场“华山论剑”中,不落后于人。
2024年-7月-31日
350 阅读
0 评论
互联
2024-7-31
云数据存储的五大风险
云数据存储的五大风险 将数据存储在云存储库中很有意义,也有很多好处。然而,任何将重要数据迁移到云服务的决定都会带来一些风险。 无论是数据丢失、缺乏隐私还是网络攻击,存储管理员在迁移之前都必须仔细考虑云数据存储风险。管理员应在云存储安装期间和之后定期检查这些风险。数据机密性、完整性和可用性至关重要。 未经授权访问数据 访问基于云的数据和系统通常需要互联网连接。只有经过批准和验证的用户才有权访问数据。基于角色的访问由用户的位置和活动决定,有助于防止未经授权的访问。理想情况下,身份验证至少具有两个授予访问权限的因素,可以保护数据免受潜在的破坏。与访问相关的活动的加密也可以保护数据。 数据丢失 当用户将数据和系统托管在云服务中时,其仍然负责数据保护,这可能会限制用户对数据的控制。生成关键数据的额外副本,并将其存储在另一个存储平台中,最好是不同的数据中心。混合布置也是一种选择。用户将关键数据存储在本地,例如NAS设备和云存储库中。这使用户能够从NAS设备本地访问关键数据,并在云中托管该数据的备份。仔细审查云服务提供商的服务级别协议。了解其规则,谁负责数据保护。实施数据保护策略,以最大程度地降低云数据存储风险。本文档为用户如何创建、存储、访问、更改和删除数据建立了指导方针。根据欧盟GDPR的规定,数据保护也是一项重要的监管要求。任何访问欧盟成员国生成的数据的组织都必须遵守GDPR。 云中的安全 尽管近年来云存储安全性有所提高,但对静态和传输中的数据进行加密仍然很重要。建立气隙以进一步保护数据。一些云供应商提供气隙,而磁带存储是另一种常见的选择。 数据隐私的损失 未经授权的访问是最大的云数据存储风险之一。这可能意味着隐私的损失,尤其是个人身份信息和个人健康信息。例如,HIPAA法规在联邦法规第164部分中有具体要求,以确保管理员建立和维护数据隐私。 网络攻击和违规 随着网络攻击的频率和严重性增加,,例如网络钓鱼和勒索软件,在云服务中存储数据的用户必须确保与现场存储相同的网络安全保护。寻找能够提供最直接的用户控制的产品。云安全产品的示例包括: 检查点Cloud Guard。支持多云环境以及大多数主要云平台。 云通道层。使用IaaS支持云服务器和容器。 Symantec云工作负载保护。支持所有主要云平台并提供资源可扩展性以支持不断变化的用户需求。
2024年-7月-31日
366 阅读
0 评论
互联
2024-7-31
云安全如何增强数据完整性
作为企业主或IT专业人士,您了解数据在当今数字环境中的巨大价值。但您是否考虑过在云中存储和传输敏感数据的风险?数据泄露、未经授权的访问和潜在的损坏可能会造成灾难性的后果,损害您企业的诚信和声誉。如果您能够充分利用云计算的强大功能,同时确保对宝贵数据进行最大程度的保护,结果会怎样?云安全改变了游戏规则,它提供了强大的措施来保护数据完整性,并使组织能够自信地在云中运营。 数据屏蔽可增强数据完整性 维护云中数据完整性的一个关键方面是保护敏感数据,例如个人身份信息(PII)或财务记录。数据屏蔽是一种安全技术,在实现此目标方面发挥着至关重要的作用。数据屏蔽涉及使用虚构或匿名值来模糊或替换敏感数据元素的过程。这可确保原始数据仍然受到保护,同时仍允许对屏蔽数据集执行测试、开发或其他授权活动。在云计算的背景下,数据屏蔽在维护数据完整性方面发挥着重要作用,在非生产环境(例如开发、测试和准备阶段)中保护信息,因为这些环境可能会向不同的个人或团队公开信息。通过屏蔽数据,可以隐藏这些信息。最大限度地降低访问或意外暴露的风险。促进与供应商、合作伙伴或承包商等各方的数据共享和协作。数据屏蔽涉及用屏蔽版本替换值,以促进协作,同时维护数据的完整性。确保遵守要求保护数据的数据隐私法规(如GDPR和CCPA)。在组织中实施数据屏蔽表明他们致力于确保数据隐私和合规性,以避免受到处罚。通过模糊信息来减轻内部威胁可以降低内部人员获取和破坏信息的可能性。为了有效部署数据屏蔽措施,企业应该利用动态屏蔽技术来实施访问控制,对屏蔽数据集进行审计和监控,并选择提供强大数据屏蔽功能以及行业标准加密和密钥管理实践的知名云服务提供商。 云安全对于数据完整性的重要性 1.保护数据免遭未经授权的访问 云计算的一大担忧是防止访问机密信息。云安全功能(如访问控制、加密和多因素身份验证)在阻止未经授权的个人获取敏感信息方面发挥着重要作用。通过实施这些安全措施,企业可以保护其数据免受泄露,确保其完整性并防止更改或泄露。 2.确保数据的一致性和准确性 在设置中,数据通常由多个用户和应用同时处理。安全协议(例如版本控制和数据同步机制)有助于维护跨位置和设备的数据一致性和准确性。这可确保所有用户都与最新的数据版本进行交互,从而最大限度地减少错误、差异和数据损坏。 3.传输过程中保护数据 数据在云服务、应用和设备之间不断传输。通信协议(HTTPS、VPN)和端到端加密等云安全措施可在传输过程中保护数据,以阻止窃听、中间人攻击和其他可能损害数据完整性的潜在安全风险。 4.启用安全备份和恢复 数据丢失或损坏会对企业产生影响。云安全解决方案通常具有备份和恢复功能,以确保在系统故障、网络攻击或人为失误的情况下能够快速安全地恢复数据。这种方法通过提供恢复数据的方法来帮助维护数据完整性,从而减少停机时间和潜在的数据丢失。 数据完整性的云安全最佳实践 为了通过云安全有效增强数据完整性,企业应实施以下最佳实践:● 使用访问控制(如基于角色的管理和多因素身份验证)来限制对敏感数据的访问。● 在存储和传输过程中使用行业标准加密保护数据。● 使用最新的安全补丁更新云服务、应用程序和操作系统,以防止违规。● 跟踪和审计所有数据活动以检测和应对安全事件。● 通过定期的安全培训,教会员工如何处理敏感数据和识别威胁。● 定期检查云安全性以发现弱点并更新针对新威胁的保护措施。 总结 那么,您准备好在保护数据完整性的同时过渡到云了吗?云安全在释放可能性的同时保护宝贵信息。试想一下。通过实施安全协议,可以告别对数据泄露、未经授权的进入或篡改的担忧。相反,您将有信心根据数据做出业务决策,从而建立利益相关者之间的信任并促进业务增长。不要让忧虑阻碍进步。采用云计算,并制定符合组织要求的安全计划。简化运营,保持领先地位,保护资产和数据。未来在于云,有了云安全措施,您可以达到顶峰,同时确保数据的完整性坚如磐石。拥抱云技术的功能。为业务开辟一个充满机遇的领域。 常见问题 云安全如何有助于维护数据完整性? 云安全机制保护数据免遭访问,确保其一致性和准确性。它们还在传输过程中保护数据并促进备份和恢复过程。所有这些都有助于提高数据完整性。 数据屏蔽对于保护数据完整性有何作用? 数据屏蔽使用伪造或匿名值来隐藏信息。这种做法可以在生产环境中保护详细信息。它还支持数据共享和协作。此外,它还有助于遵守数据隐私法规并降低组织内部的风险。 哪些云安全服务和解决方案可以提高数据的可信度? 有一些选项可以增强云数据安全性,例如云访问安全代理(CASB)云数据丢失预防(DLP)工具、带密钥管理的云加密、云安全态势管理(CSPM)解决方案以及云原生安全信息和事件管理(SIEM)系统。 关键要点 ● 维护数据完整性对于做出明智的决策、满足要求和维护利益相关者的信心至关重要。● 云安全措施保护数据免遭访问,确保准确性和一致性,在传输过程中保护数据并启用备份程序。● 采用访问控制、加密方法、定期系统更新和员工培训等措施对于维护云环境中的数据完整性至关重要。● 数据混淆在保护信息方面发挥着重要作用,可以促进安全的团队合作,确保遵守合规性并降低内部人员的风险。● 利用安全服务和解决方案可以提供功能以及持续监控能力,通过自动威胁检测响应来增强数据完整性保护。
2024年-7月-31日
372 阅读
0 评论
互联
2024-7-31
如何通过无缝跨云数据共享打破孤岛?
在当今的多云世界中,标准化就像跨云数据共享的转换器,确保不同的云平台可以读取数据并实现无缝交换。假设在全国各地有多个办事处,每个办事处都有不同的安全系统、办事处经理和营业时间。但需要从任何位置安全地访问企业文件,这就是跨云数据共享的挑战。由于每个云提供商都充当单独的办公室,因此访问所需的所有文件会变得困难。此外,拥有多个具有不同访问点的办公室会使我们容易受到入侵和数据泄露的影响。虽然办公楼内可能存在需要特殊访问权限的禁区或安全室(存储受复杂隐私法规约束的数据),但每栋办公楼的安全级别是否都相同?幸运的是,存在解决方案可以确保他们做到这一点。让我们深入探讨企业由于跨云数据共享而面临的典型障碍,以及一系列可能的解决方案,以帮助您获得实时洞察力。 多云数据管理的挑战 在多云环境中,数据分布在不同的云平台上,存储解决方案和管理工具也各不相同。这种分散的框架可能导致数据所有权分散、可见性有限和数据孤岛。数据孤岛阻碍企业全面了解其数据。数据孤岛导致数据集不完整且不一致,这意味着一个部门可能会访问错误或过时的信息。这阻碍了生成全面的实时洞察、促进协作和做出数据驱动决策的能力。事实上,研究发现,76%的受访者承认数据孤岛阻碍了跨部门交流。此外,企业使用的每个云提供商都代表着另一个安全问题,每个云都是一个潜在的入口点。网络扫描是网络犯罪分子识别暴露入口点的常用方法。许多人使用一种称为端口扫描的技术,这与审计人员查找易受攻击的网络区域的方法相同。然后,攻击者瞄准云平台之间的漏洞或错误配置,渗透到企业的整个云环境中,可能对企业的财务和声誉造成灾难性的损害。多云还意味着很难全面了解潜在的安全风险,也很难确保在所有地方都实施一致的安全策略。由于数据孤岛以及每个云提供商都有自己的安全协议和配置,这种情况进一步加剧。报告发现,69%的组织由于不同公共云平台上应用安全性的配置方式不同而遭遇数据泄露或暴露。跨云数据共享的另一个重要问题与数据隐私法规有关,企业必须遵守适用于其业务类型、数据位置和访问数据的用户的法规。确保跨多个云位置的合规性会大大增加数据治理流程的复杂性,这意味着需要额外的资源和专业知识来管理跨不同区域的合规性。对于拥有大量IT团队的大型企业来说,保持合规性可能是一个相对容易的挑战。然而,对于可能没有内部IT团队的初创企业和小型企业来说,要适应不断变化的法规,他们可能需要将有限预算中的大部分花在专家云架构师身上。 跨云数据共享解决方案 虽然多云方法确实存在挑战,但随着越来越多的企业开展国际合作、建立在家办公计划以及外包具有特定专业的项目,IT团队共享数据至关重要。以下是他们可以安全地做到这一点的方法。 跨云平台的标准化 简单来说,标准化就像是跨云数据共享的翻译器,确保不同的云平台可以读取数据并实现无缝交换。这样就无需为每个云环境编写复杂的自定义代码或数据转换流程。国际标准化组织等组织为企业提供独立的、非政府的和全球性的标准。例如,可以查找和购买有关行业顶级标准的信息。ISO/IEC23894:2023指导用户如何开发、生产、部署或使用使用AI的产品、系统和服务。遵循标准化数据结构有助于实时数据分析、消除瓶颈并避免数据共享延迟或中断。更重要的是,标准化数据简化了数据管理,使跨多个云环境实施一致的数据治理策略更加容易。 集中式数据湖 为了充分利用多云环境,企业应将数据整合并集中在单个数据库或数据湖中。由于这些存储库可以保存和处理大量结构化、半结构化和非结构化数据,因此非常适合跨部门协作。为了实现数据源的灵活性,可以实施“读取时模式”方法。这意味着在分析期间定义数据结构,而不是预先强制执行模式。但是,集中式数据湖可以配置为近乎实时地处理数据。考虑预处理步骤来准备非结构化数据以便更快地进行分析。这可能涉及事先提取相关特征或元数据。然后,可以近乎实时地分析预处理的数据以及结构化数据流。这就是人工智能数据目录的作用所在:它们作为数据湖的搜索引擎,使用人工智能和机器学习来:● 自动扫描和分类湖内的数据,使得查找和理解相关数据集更加容易。● 识别并解决潜在的不一致性,例如重复或丢失的数据,确保分析的准确性和可靠性。● 追踪数据集的起源和演变,为分析提供有价值的背景信息并确保法规遵从性。通过利用具有AI驱动目录的数据湖,企业可以获得解决跨云数据共享障碍的强大解决方案。数据湖将信息集中化,而AI目录则解锁数据,使其变得易于理解和值得信赖。 第三方数据共享平台 第三方平台允许企业将其各种云环境连接到平台,从而实现安全且受控的数据交换。此中央枢纽简化了跨云协作,使跨云环境的部门能够轻松访问和共享数据,从而促进协作和知识共享。此外,拥有集中的数据焦点可以简化数据治理任务,如访问控制、合规性监控和审计跟踪。因此,随着更快、更高效的数据共享成为可能,此外,一些平台还提供可视化工具,如内置仪表板。企业可以一目了然地了解数据,并快速响应市场趋势和机会,从而提高整体敏捷性。市场上有各种各样的平台和工具,包括数据集成平台以及支持多云的云数据仓库。让第三方提供内置报告等功能、提供详细的审计跟踪并采用静态和传输中加密等强大的安全协议可以减轻小型IT团队和个人的负担,但确保您的合作伙伴值得信赖至关重要。选择正确的平台和工具取决于企业的具体需求和预算,因此企业应该考虑支持哪些云提供商、他们提供的安全功能以及平台是否可以随着业务扩展。 总结 当前的多云方法对企业来说是一个挑战。分散的信息被锁在多个云环境中,导致无法获取实时见解,并增加了合规性和法规方面的问题,更不用说,众多的入口点增加了黑客的攻击面。然而,企业并非束手无策。通过跨平台标准化数据格式、实施具有强大数据目录的集中式数据湖以及利用第三方数据共享平台,隧道尽头就会出现曙光。这束光可以帮助企业打破数据孤岛并释放其信息的真正潜力。
2024年-7月-31日
369 阅读
0 评论
互联
2024-7-31
适合初学者的7种良好云存储策略
由于我们不断创建数据,因此存储数据的成本可能很高。云存储可帮助企业节省时间、降低成本并简化流程。从处理日常问题到简化功能,它可满足所有需求。当企业知道如何有效使用云存储时,云存储将为企业提供最佳服务。优化云存储可增强安全性、消除漏洞并支持高效运营。考虑到所有这些,这些策略可以帮助组织蓬勃发展。 如何选择云存储解决方案 了解业务需求将帮助找到适合用户的云存储选项。分析客户对云的期望操作类型和性能。选择具有满足这些期望的速度和资源的存储选项。预算也是一个因素。选择云存储解决方案时,请注意超额费用。业务开展的时间越长,数据存储量就越大。在合适的时间升级数据存储,可以避免昂贵的超额费用。选择云服务时要灵活。避免将自己锁定在单一云服务提供商。这会降低未来的灵活性,使得更换供应商的成本高昂且几乎不可能。分析合同条款并规划退出策略,即使它们是假设的。在需要时有能力离开。使用容器化和抽象层来确保数据保持可移植性。 正确管理数据 命名数据的方法有很多种,尤其是存储桶和对象名称。选择的方法应该在整个云存储解决方案中保持一致。文件命名的一致性使文件易于检索、共享、编辑和分析。此外,定期备份数据,所有云资源都应备份。这样可以确保即使系统出现故障,存储数据也受到保护。如果数据损坏、意外删除或出现安全漏洞,也会受到保护。 最大程度提高可用性并最大程度减少停机时间 正确设置云存储安全,不要因为错误的权限设置而让敏感信息处于危险之中。避免使用不符合要求的默认配置或处理不当的安全措施。此外,始终保持存储可访问,并制定备份计划以应对中断。业务运营需要一致的云服务,让您在必要时访问重要数据。通过在不同位置构建强大的基础设施、备份系统和数据存储设施来实现这一点。另一种最大化可用性的方法是监控云存储接收的流量。根据每秒操作数、带宽和缓存控制来评估流量。确保通过在一天中不太繁忙的时间进行更新、最大化带宽限制和快速处理错误来最大限度地减少攻击。 优化数据传输 数据传输速度是指在不同位置之间传输文件的速度。对于大型数据集,传输速度非常重要。为了提高数据传输速度,请使用以下三种技术:● 优化云存储网络设置。● 使用内容分发网络或CDN。● 实现高效的数据压缩。上传数据时,不要中断连接,相反,要等待数据上传完成。确保在通信中断或中断的情况下,上传可以从中断的地方继续。 维护云存储 不要让云存储环境变得臃肿。并非所有内容都需要存储在云中。消除冗余、过时或琐碎的内容。任何过时的文件都可以被取出并存储在其他地方,以提高生产力、降低风险并提高速度和准确性。毕竟,组织良好的云环境可让用户轻松找到信息。随着企业的发展,它将需要更多的存储空间。通过清理云存储并删除冗余数据,充分利用这一确定性。不要存档需要删除的内容。相反,销毁信息并将其全部删除。 保护云存储架构 您应该监控云架构是否存在安全风险。如果发生数据泄露,请立即采取行动执行安全法规并采用加密技术。还应该定期进行云存储审查,并运行分析程序以支持强大的云存储解决方案。另一项安全措施是限制访问控制。请谨慎授权访问云存储。使用不同的安全级别,不要向匿名用户授予权限。注意谁在云存储中拥有管理权限。明智的做法是将访问权限保持在最低限度,并定期检查以确保它们保持最新状态。人为错误可能导致安全问题。确保员工接受过云存储方面的培训,以避免配置错误和访问控制不足。投资培训合格人员,确保他们了解最佳实践,包括遵守云数据存储法规。 兼容性程序和沟通路线 您可能偶尔需要将数据迁移到其他云提供商或系统。为了成功迁移,请确保已定义传输协议和程序。自定义数据传输方法并定期测试,监控传输以确保维护安全性。此外,还可以将云存储与本地系统或其他云服务集成。为此,必须始终使用高级数据互操作性解决方案。建立清晰的沟通路线,简化工作流程。
2024年-7月-31日
379 阅读
0 评论
互联
2024-7-31
研究显示:数据中心液冷市场升温
根据研究公司Dell'Oro Group的报告,数据中心的液体冷却技术正从特定市场细分中的小众选择转变为主流应用。 随着先进处理器和高性能服务器部署的增加,液体冷却的热管理能力需求也在增长。展望未来,Dell'Oro Group表示,液体冷却将在2024年下半年开始成为主流技术,并将在未来五年内增长至超过150亿美元的市场规模。 “以前,液体冷却供应商宣称提高效率和可持续性是该技术被采用的原因,”Dell'Oro Group研究总监兼《数据中心液体冷却高级研究报告》作者Lucas Beran说道。“虽然这些好处依然存在,但目前推动其采用的主要原因是其增强的热管理性能,能够满足高端处理器和加速服务器特别苛刻的热要求。” Dell'Oro报告称,配备GPU和定制加速器的加速服务器在2024年第一季度占所有服务器销售的超过一半。此外,AI网络需求将加速向更高速度和先进热管理的转变。预计到2025年,AI后端网络中部署的大部分交换端口将达到800 Gbps,而到2027年将达到1600 Gbps。 液体冷却类型 Dell'Oro报告研究了三种液体冷却技术:后门热交换器、直芯冷却和浸没冷却。 后门热交换器通常安装在单个服务器机架上,涉及在机架后部放置一个冷凝器单元,提供冷却液并移除服务器产生的热量。Beran表示,“后门热交换器的重要之处在于它不需要对IT设备进行修改,因此在未设计为液体冷却的基础设施中部署要简单得多。” 直芯液体冷却技术需要对现有设备进行改动,涉及在处理器顶部安装冷却板,并从服务器中引出管道。这种技术配置被称为单相直芯液体冷却(DLC)。双相直芯液体冷却利用冷却液的液相和气相,更高效地散热。 单相DLC部署首先规模化,Beran表示,“这是因为高性能计算行业长期采用该技术,帮助建立了更成熟的供应商生态系统和最终用户部署和服务技术的知识。”单相DLC是领先的数据中心液体冷却技术,预计在五年预测期内将继续保持领先地位。然而,预计双相DLC将在预测期内显著增长。Beran表示,流体创新将在浸没冷却的成功中发挥重要作用。 2023年数据中心液体冷却收入方面,CoolIT Systems、Boyd和Motivair是前三大供应商。Beran还指出,Nvidia已指定单相DLC为支持其即将推出的GB200计算节点的冷却技术。 Nvidia GB200系列的高端产品NVL72系统是一个72节点的液冷机架级系统,适用于最计算密集的工作负载。每个DGX GB200系统配备36个Grace Blackwell超级芯片,包括72个Blackwell GPU和36个Grace CPU,通过最新一代的NVLink互连技术连接。 Dell'Oro报告中预测的第三种技术——浸没冷却——涉及将服务器、网络设备或其他设备直接浸入不导电的液体中,该液体作为冷却剂,直接吸收设备产生的热量并将其传递出去。与传统的空气冷却相比,浸没冷却技术支持更高的服务器密度。 “对浸没冷却有很大的兴趣,因为从工程角度来看,它提供了最佳的热管理性能,”Beran表示。“它提供了比直芯液体冷却更好的热管理性能,因为没有与其相关的空气冷却,几乎可以捕获服务器产生的100%的热量。这使得企业有机会实现最佳的能源效率。” 然而,浸没冷却的技术复杂性和生态系统正在减缓其采用速度,Beran说。 “对于浸没冷却罐,您需要确保电缆与浸没冷却罐兼容,需要有懂得如何部署和设计这种基础设施的承包商,”Beran表示。“与其他形式的液体冷却(如直芯液体冷却)相比,浸没冷却需要更多的教育和更多人的参与。” 尽管如此,单相浸没和双相直芯液体冷却正在进行测试、验证和概念验证工作,这为供应商带来了不断增长的市场。另一方面,双相浸没冷却(涉及液体浸没和气体收集)在采用过程中面临挑战,尤其是PFAS流体使用的监管环境。 PFAS,即全氟和多氟烷基物质,是浸没冷却中使用的一类化学品。3M公司是PFAS的最大生产商之一,该公司在2022年表示将于2025年底前停止制造和使用PFAS材料,出于环保原因,这对浸没技术领域造成了冲击。 “尽管如此,仍有很多创新,我的研究表明,浸没冷却有机会在未来五年内在市场中占据一席之地,”Beran说。“但在我的预测期结束时,单相直芯液体冷却仍占据市场的一半以上,而浸没冷却不到25%。” LiquidStack在Cisco Live上展示液体冷却 在最近的Cisco Live活动中,浸没冷却技术开发商LiquidStack展示了其技术,吸引了大量关注。 “我认为我们的客户需要对这种目前处于早期阶段的技术做出决定,”Cisco光学系统和光学部门高级副总裁兼总经理Bill Gartner在活动中表示。“液体浸没可能很昂贵,但客户将权衡这一点与未来高效运行数据中心和AI系统的电力成本。” 其他浸没冷却领域的参与者包括Submer、Aperitas、富士通和Green Revolution Cooling。
2024年-7月-31日
356 阅读
0 评论
互联
2024-7-31
到2031年,物联网零售市场规模将扩大至4649亿美元
InsightAce Analytic Pvt. Ltd. 宣布发布全球零售物联网市场评估报告。根据 InsightAce Analytic 的最新研究,2023 年全球零售物联网市场价值为 578 亿美元,预计到 2031 年将达到 4649 亿美元,预测期内(2024-2031 年)的复合年增长率为 30.1%。物联网 (IoT) 正在通过增强客户体验、优化运营和实现新商业模式来改变零售市场。智能货架、信标和联网设备等物联网技术可提供实时数据和对库存水平、客户偏好和商店流量模式的洞察。这些数据使零售商能够更有效地管理库存、个性化营销工作并简化供应链运营。此外,支持物联网的设备可以通过自动结账、交互式显示和基于购物者行为的定制促销等功能改善店内体验。随着物联网的普及,它有望推动重大创新和效率提升,帮助零售商在快速发展的市场中保持竞争力。全渠道零售的兴起,由无缝整合线上和线下购物体验的物联网技术推动,正在促进市场增长。此外,物联网智能商店的日益普及,零售商使用互联设备和传感器提供沉浸式和个性化的购物体验,进一步加速了市场扩张。驱动因素:物联网 (IoT) 在零售市场的增长由几个关键因素推动。其中包括对增强客户体验的需求不断增长以及对高效库存管理的需求。物联网技术使零售商能够收集有关消费者偏好和行为的实时数据,从而实现个性化营销策略。此外,物联网解决方案提高了供应链的可视性和运营效率,降低了成本并提高了生产力。智能设备知识和采用率的提高以及物联网技术的进步进一步推动了市场增长。此外,物联网与机器学习和人工智能等新兴技术的结合增强了零售运营中的决策过程和预测分析。挑战:在实施物联网 (IoT) 时,零售市场面临诸多障碍。一个重大障碍是确保数据的安全性和隐私性。由于物联网设备收集了广泛的数据,保护这些数据免遭泄露并确保客户隐私变得越来越困难。另一个挑战是将物联网系统与现有的零售基础设施集成。零售商经常面临兼容??性问题,并且需要大量投资来升级其技术。此外,管理和维护互联设备网络的复杂性可能令人难以承受,需要专业技能和知识。此外,技术进步的快速步伐意味着零售商必须不断适应以保持竞争力,这既昂贵又耗费资源。区域趋势:北美零售市场的物联网预计将占据主要市场份额。这一增长归因于零售行业店内和数字运营的整合,RFID 标签和智能货架等技术使零售商能够高效管理库存并增强购物体验。预计亚太地区 (APAC) 将成为增长最快的市场,预计 2024 年至 2031 年的复合年增长率将非常可观。这种快速而持续的增长是由互联网普及率、智能手机使用率和电子商务活动的不断提高推动的。这种数字化转型营造了一种有利于在客户互动、营销策略和虚拟体验中采用数字化身的环境。最新发展: 2024 年 1 月,IBM Corporation 与 SAP SE 合作创建解决方案,旨在帮助消费品和零售行业的客户通过使用生成式 AI 优化其供应链、财务运营、销售和服务。 2023 年 12 月,HCL Technologies (HCL) 与 SAP 建立合作伙伴关系,开发和提供与各个行业相关的物联网解决方案和服务。HCL Technologies 将把相关的 SAP 软件与服务和硬件捆绑在一起,以加快和简化组织在实施工业 4.0 转型时遇到的分散而复杂的解决方案堆栈。
2024年-7月-31日
351 阅读
0 评论
互联
2024-7-31
数据中心灾难恢复:业务连续性的必要措施
从短信和流媒体服务到关键的政府、教育和医疗保健应用,数据中心为我们日常生活提供了便利。随着世界比以往任何时候都更加依赖数据中心,确保这些设施保持安全和正常运行至关重要。因此,数字基础设施组织必须制定强大的数据中心灾难恢复计划。 什么是数据中心灾难恢复? 尽管在避免数据中心在建设阶段停机,以及在运行后通过备份和辅助电源方面已经取得了进展,但数据中心仍然容易受到不可预见的情况的影响,包括自然灾害、人为错误和网络攻击。尽管不可能预防每一场灾难,但组织必须尽一切努力做好最坏的准备。确保数据中心做好应对意外情况的准备的最佳方法是制定一个强大的数据中心灾难恢复计划。 数据中心灾难的类型 停电 停电通常是数据中心停机和系统故障的主要原因。这可能导致重大损失,无论是收入还是客户信心。企业越来越多地转向混合提供商和云服务,以确保其数据由冗余系统备份,并限制受潜在停电影响的客户数量。 人为错误 人都会犯错,因此这是不可避免的,但在数据中心运营商可能遇到的灾难中,人为错误的风险可以通过采取正确的预防措施大大降低。过去三年,近40%的组织因人为失误而遭遇过重大中断。在这些事件中,85%的原因是工作人员未能遵守程序,或流程和程序本身存在缺陷。人为错误的例子包括意外断开电源、电路过载或不安全的结构设计。 网络攻击 虽然停电、结构损坏和人为错误是造成许多数据中心灾难的原因,但包括勒索软件在内的网络攻击也是数据中心面临的主要威胁,而且这些网络攻击的代价同样高昂。根据报告显示,2022年全球三分之二的组织遭受了网络攻击,业务因攻击而平均中断五天。 为什么数据中心需要灾难恢复计划 面对众多运营风险,灾难恢复计划可以说是应对数据中心紧急情况的最重要的一步。一个真实事件很好地说明了这一点:2021年10月15日,韩国两大科技公司KakaoCorporation和NaverCorporation发生火灾。虽然Naver能够相对较快地启动并运行其服务器,但Kakao的服务器却瘫痪了数小时,导致用户突然无法使用他们的消息平台、支付应用或拼车服务,从而遭受广泛而严重的中断。重要的是,尽管Kakao确实制定了灾难管理协议,但该协议并未考虑到火灾发生时的断电情况,从而延缓了服务恢复工作。从这一事件中吸取教训后,Kakao成立了一个预防再发委员会,以防止类似事件再次发生。数据显示,企业越来越认识到灾难规划的重要性,近90%的组织都有某种形式的灾难恢复计划。然而,与此同时,大多数受访者(70%)只将很少的预算(0%-10%)分配给灾难恢复规划。一个问题是,灾难恢复规划主要是IT工作者的责任,很少直接向高管汇报。灾难恢复计划对高管层的可见性有限,只有41%的灾难恢复计划负责人向高管层汇报。不过,在今年的调查中,我们看到同样多的受访者表示,灾难恢复负责人的下属比高管层低两个级别,这一比例比我们上次调查中的26%大幅增加。在组织中提升这一职位可以加强与整体业务需求的一致性,并增加获取资源的机会,以确保关键业务的技术弹性。 面向未来的数据中心建设 虽然无法预防自然灾害,但数据中心开发商正在设计更能抵御极端天气、火灾和地理要求的设施。每个数据中心的设计都必须考虑到其所在地的具体地理位置,研究最佳建筑材料、施工技术和设施布局,以抵御自然灾害力量,同时遵守IBC2003规范。设计冗余电源和冷却系统,以便在暴风雨中也能继续运行。结构分析验证了定制的建筑材料、施工方法和布局,以抵御极端风力和隆起。所有支持设备(包括发电机等)都在数据中心内部,这意味着内部设备受到保护。 制定数据中心灾难恢复计划 确定数据中心的关键任务服务 在制定灾难恢复计划时,了解哪些服务是关键任务至关重要。一些企业处理灾难恢复的一种方式是通过弹性和可靠性实践,这允许组织通过包括异地备份来从中断中恢复,这可能具有用于故障转移的辅助基础设施。 考虑成本 不仅要考虑停机或结构损坏的成本,还要考虑数据中心服务对谁的影响,以及自然数据中心灾难对当地社区意味着什么。数据中心灾难可能会破坏当地社区服务,如政府职能、公用事业、医疗保健和互联网接入,灾难恢复计划应考虑对公民生活的直接和间接影响,并提供应急计划,以便在停电期间实现基本的社区功能。灾难恢复计划应考虑在灾难期间提供替代的社区‘接入点’,例如WiFi连接的灾难恢复中心,公民可以在那里提出索赔并与亲人联系。运营商应与当地官员协调灾难恢复计划。” 实施安全最佳实践 在网络安全方面,随着攻击者的攻击方法越来越复杂,数据中心IT必须通过定期备份、端点保护、频繁渗透测试和持续的员工培训来加强安全实践。备份数据是灾难恢复的关键挑战之一。数据中心运营商可能会选择基于SaaS的备份,从而限制对本地服务器管理的需求。SaaS数据托管在线,可从任何地方访问,从而确保在设施无法访问的情况下继续运营。基于SaaS的备份提供固有的灾难恢复,因为SaaS数据存储在远程,可提供冗余。SaaS提供商管理底层基础设施和灾难恢复,减轻组织的负担。 制定灾难恢复计划 数据中心灾难恢复计划应根据组织的特定需求进行量身定制,制定全面计划后,组织必须确保所有关键数据中心员工都了解宣布紧急情况的协议。此外,组织必须经常测试其事件响应和灾难恢复计划,其中可能包括模拟灾难场景。除了建立一个灾难恢复设施,以便在发生大规模中断时转移关键服务之外,还应关注其事件响应程序。
2024年-7月-31日
365 阅读
0 评论
互联
2024-7-31
生成式人工智能:可再生能源管理的新前沿
生成式人工智能:可再生能源管理的新前沿 生成式人工智能正在改变各个领域,而可再生能源管理处于这一变革的最前沿。通过利用人工智能的力量,企业正在优化能源生产和消费,降低成本,提高可持续性。本文将探讨生成式人工智能如何在可再生能源管理方面取得重大进展,其好处、挑战和未来前景。 可再生能源管理的生成式人工智能生成式人工智能是指人工智能的一个子集,其可以根据训练过的数据创建新的内容和解决方案。事实证明,这项技术将改变可再生能源管理的游戏规则。从预测能源生产模式到优化能源储存和分配,生成式人工智能正在帮助最大限度地提高可再生能源系统的效率。可再生能源领域一直面临着与能源生产、储存和分配的可变性相关的挑战。传统的方法往往不能有效地管理这些变量。然而,生成式人工智能分析大量数据和生成预测模型的能力提供了一种更有效和可持续的方法。生成式人工智能如何增强可再生能源管理1.预测性维护:生成式人工智能可以在设备发生故障之前预测故障,减少停机时间和维护成本。通过分析历史数据和实时传感器信息,人工智能系统可以识别潜在问题的模式,从而实现主动维护。2.能源生产预测:准确预测能源生产对有效的可再生能源管理至关重要。生成式人工智能模型可以分析天气模式、历史数据和其他变量,以提供精确的预测,确保最佳的能源生产和分配。3.优化能源存储:可再生能源的一个重大挑战是存储。生成式人工智能可以通过预测能源需求和供应来优化能源存储解决方案,确保多余的能源被有效存储和使用。4.电网管理:将可再生能源纳入电网可能很复杂。生成式人工智能有助于平衡供需,管理电网稳定性,并通过优化电网中的能源流动来减少能源浪费。5.需求响应:生成式人工智能可以分析消费模式,调整能源分配,有效满足需求。这不仅保证了稳定的能源供应,而且通过避免生产过剩和能源浪费来降低成本。生成式人工智能在可再生能源管理中的好处1.提高效率:生成式人工智能通过优化发电和电网运行来改善能源系统,因此对降低运营成本和提高能源产量有重要帮助。2.节省成本:定期维护计划与存储系统的最佳操作和有效的电网管理相结合,有助于显著降低成本。这些盈余将由企业进行再投资,用于开发新的清洁能源解决方案和增加替代能源领域。3.可持续性:生成式人工智能通过最大限度地利用可再生能源,和最大限度地减少浪费来支持可持续实践。这与减少碳足迹和应对气候变化的全球努力是一致的。4.提高可靠性:再一次,人工智能的使用及其预测问题的能力意味着总是提供充足的能源。这种可靠性在可再生能源的发展中是非常必要的,因为它们可以用作化石燃料的替代品。5.可扩展性:通过生成式人工智能,可以扩展可再生能源系统的管理。因此,随着可再生能源消费量的增加,人工智能家电可以最优地管理生产、储存、分配。挑战与考虑虽然收益显著,但在可再生能源管理中实施生成式人工智能存在挑战。这些包括:1.数据质量和可用性:人工智能生成器的应用依赖于数据,因此高质量的数据可以增强生成式人工智能的结果。当提供给人工智能的信息不一致或以某种方式包含空白时,人工智能的有效性和精确性就会受到影响。2.与现有系统集成:另一个潜在的缺点是,实施人工智能解决方案往往很困难,因为它们必须与现有的能源管理系统集成,而与后者集成可能需要大量的时间、金钱和员工培训。3.监管和道德问题:当考虑在能源管理中实施人工智能时,需要考虑许多法律和道德问题,例如数据收集和使用有偏见的算法的可能性。4.高昂的初始成本:采用AI解决方案需要在技术、系统和专业人才方面进行大量的资本投资。然而,从长远来看,成本通常会通过相应的效率和资源利用来收回。生成式人工智能在可再生能源管理中的未来可再生能源管理中生成式人工智能的未来似乎是积极的。随着时间的推移,人工智能将进一步发展,以更有能力管理现有的能量系统类型。未来的发展可能包括:1.先进能源存储解决方案:人工智能将成为先进能源存储解决方案的主要利益相关者,下一代电池和节能技术将在其中。2.去中心化能源网:人工智能生成的解决方案将创建去中心化能源网,其中能源在当地产生和消耗,从而减少对骨干工厂的依赖并提高电网的耐久性,这几乎是不可能的。3.人工智能驱动的政策和法规:政府和当局可以利用人工智能作为纠正、公平和可再生能源的手段,这将使向可再生能源提供电力,同时消除有害行为的发生。4.全球合作:人工智能将使各国能够通过共享数据、技术和最佳实践,共同致力于世界各地的可再生能源项目,以实现可持续的未来。5.以消费者为中心的解决方案:人工智能将允许消费者控制其能源消耗,为其提供个性化的建议和工具,以优化个人层面的能源使用。总结生成式人工智能有可能改变可再生能源的管理方式,使其更高效、更便宜、更可持续。尽管人工智能存在障碍,但在能源供应链中使用人工智能的好处是绝对的。随着时间的流逝,生成式人工智能将成为能源转变的中心,并将在未来的可再生能源中发挥更大的作用。在实现全球能源目标,并为人们提供可持续和稳定的能源未来的持续旅程中,技术采用将是一个优先事项。
2024年-7月-31日
375 阅读
0 评论
互联
2024-7-31
超大规模数据中心助力人工智能革命
科技的最新进展让日常用户能够使用人工智能 (AI) 和机器学习 (ML)。人工智能推动了几乎所有行业领域的创新,其适应和响应不断变化的需求的能力创造了令人兴奋的新机遇。从我们驾驶的汽车到构成农业行业未来的智能农场,很难找到一个不会被人工智能改变的行业。人工智能应用的兴起推动了对先进基础设施的需求,这些基础设施将提供更快的数据速度、更大的带宽和更高的频率。为了满足人工智能爆炸式增长所带来的日益增长的需求,这些架构需要具备规模和快速重新配置的能力。超大规模数据中心的兴起数据中心是我们现代网络基础设施的重要组成部分。数据中心的普遍形象是一座大型仓库建筑,里面摆满了一排排的计算设备。许多数据中心都是由单个组织(无论是商业组织还是政府组织)拥有的企业数据中心。这些专用服务器在本地处理信息,控制自己的数据需求。虽然这些通信中心是数据处理解决方案的一部分,但它们只是整体战略的一小部分。超大规模数据中心将提供推动 AI 革命的计算能力。顾名思义,超大规模设施比传统数据中心大得多,可满足众多用户的需求。随着 AI 等数据密集型应用的增加,超大规模数据中心的数量也在大幅增加,规模也在不断扩大。可扩展性和灵活性人工智能应用的复杂性和多样性意味着每个超大规模的安装都将是不同的,每个安装几乎位于世界上的任何地方。这就产生了对高度灵活的解决方案的需求。客户希望从最新数据网络的改进性能中受益,并且必须确信他们的设备能够满足他们的需求。因此,根据数据需求灵活扩展对于满足客户期望至关重要。电连接器是实现快速重新配置的关键。连接器传输电力和信号,同时确保通过它们的数据的质量,这就是信号完整性 (SI) 发挥作用的地方。SI 描述了通过连接器和电缆传输的电信号的质量。最新的连接器具有低调、小尺寸和减小的引脚间距的特点,使其适用于最新的紧凑型服务器应用。通过密闭空间的高密度信号可能会引起串扰。因此,信号传输所经过的电缆、连接器和印刷电路板 (PCB) 走线都是专门为保持 SI 而设计的。随着超大规模数据中心的出现,信号完整性变得至关重要,为此,Molex 开发了一系列 AI 和 ML 解决方案,帮助确保数据处理的可靠性和性能。最大限度地减少信号损失是一项挑战,尤其是在数据密集型 AI 应用中。使用传统的 PCB 安装连接器时尤其如此。Molex 的高速直连电缆 (DAC) 为这一问题提供了一种先进的解决方案。DAC 提供高达 100Gbps 的传输数据速率,并提供现成的和定制的长度。对于机架式服务器应用,Molex 创建了板对板 224Gbps-PAM4 连接器解决方案,例如 Mirror Mezz。这些连接器采用可堆叠配接的薄型设计,每差分对可提供高达 56Gbps 的数据速度,非常适合超大规模数据中心使用的高密度服务器。超大规模数据中心的电力电力在我们数据网络的未来中发挥着巨大的作用。虽然确切的预测因来源而异,但据估计,到本世纪末,全球发电量的 4% 将用于数据中心。[1]?虽然 SI 对通信质量至关重要,但电力分配对于确保超大规模数据中心的平稳运行也同样重要。高效使用电力对于降低运营成本和提高性能至关重要。配电和模块化基础设施对于扩展也至关重要。模块化电源使数据中心能够根据需要增加容量,而不会中断现有运营。硬件加速在数据中心核心的高效计算中发挥着重要作用。硬件加速允许将特定计算任务转移到系统内的专用硬件组件,从而实现比仅在通用 CPU 上运行的软件更高的效率。结论人工智能系统正在改变我们处理数据的方式。为了充分发挥其潜力,人工智能系统将依赖超大规模数据中心来提供快速响应不断变化的需求所需的灵活性和可扩展性。连接性对于最新 AI 架构的性能和模块化至关重要。Molex 正在解决提供灵活性和易用性的复杂挑战,以满足 SI 和高速数据所需的最新标准。Molex 解决方案平衡了更小尺寸和更高密度的需求,可提供未来超大规模数据中心所需的性能。 作者:David Pike
2024年-7月-31日
380 阅读
0 评论
互联
4
5
6
7
8