男男19禁啪啪无遮挡免费,国产免费AV片一级大片免费观看,16初次破初视频在线播放,人妻AV中文系列

首頁 / 資訊中心 / 趨勢研究/英特爾戴金權:人工智能最后一定是“軟加硬”的綜合體

英特爾戴金權:人工智能最后一定是“軟加硬”的綜合體

發布時間:2019-07-18 分類:趨勢研究

近日,2019年全球人工智能與機器人峰會(CCF-GAIR)在深圳舉辦,該峰會由中國計算機學會(CCF)主辦,雷鋒網、香港中文大學(深圳)承辦,深圳市人工智能與機器人研究院協辦,得到了深圳市政府的大力指導。
英特爾高級首席工程師、大數據技術全球CTO 戴金權發表了題為《統一的數據分析及AI 驅動大規模業務洞察》的演講,闡述了英特爾超異構計算的理念和軟硬件協同創新的AI發展思路。
AI生產化部署的新方法
戴金權在演講中談到,人工智能并非單一的工作負載,而是一種廣泛的、能夠強化所有應用性能的強大能力,而人工智能從實驗室到落地需要統一的數據分析流水線。
“我們已經進入以數據為中心的世界,今天90%以上的數據是在過去幾年中產生的,其中大概50%是在過去兩年中產生,雖然說我們已經進入人工智能時代,但事實上大概只有2%的數據真正得到了分析,并且對生產和生活起到幫助?!贝鹘饳嗾劶皵祿幚淼男袠I現狀。
究其原因,他認為大規模的人工智能應用還非常困難,不管從復雜性、成本、可拓展性等方面都是如此,把深度學習的算法從實驗室搬到現實的生產環境中是需要考慮很多東西,從數據的收集、管理、清洗、特征提取、模型訓練、推理,整合到分析的數據流,包括對整個集群的架構、服務等等各種管理。
戴金權表示,在這個過程中你需要有數據管理的部分,數據分析的部分,以及各種機器學習、深度學習、人工智能算法的部分,如何將這些不同的獨立的框架整合到流水線里,將你的數據存儲、清洗、分析、可視化變成一個統一的端到端解決方案,這有非常多的技術難題。
“BigDL是一個建立在大數據平臺(Hadoop/Spark)之上原生的分布式深度學習庫,它提供了在Apache Spark上豐富的深度學習功能,以幫助 Hadoop/Spark成為一個統一的數據分析平臺。在這個基礎上,我們去年又開源了Analytics Zoo項目,它是基于Apache Spark、TensorFlow這些底層上更高階的人工智能的流水線和平臺,旨在加速大數據加上人工智能這個應用的創新以及更快的落地?!彼U述了英特爾的全棧軟件方案。
此外,戴金權在會后的訪談中告訴網易智能,英特爾做的就是希望通過Analytics Zoo平臺,幫助用戶無縫從筆記本的生產原型擴展到集群或生產化部署?!斑@是我們和其他人不同的地方,也是我們的優勢”。
硬件趨于異構軟件趨于統一
資料顯示,英特爾預計,數據中心AI芯片的總體潛在市場規模(TAM)正以25%的復合年增長率(CAGR)增長,預計到2023年將達到100億美元。
此前,英特爾提到,現在已經從以晶體管為中心轉移到以數據為中心,單一因素不足以滿足多元化的未來計算需求。英特爾認為只有六大技術支柱帶來的融合創新才能應對未來數據的多樣化、數據量的爆發式增長,還有處理方式的多樣性。這六大技術支柱是制程和封裝、架構、內存和存儲、互連、安全、軟件,它們是互相相關、緊密耦合。
在制程和封裝層面,沒有單個的芯片類型可以成為所有工作負載的最優解。英特爾把不同的小芯片,甚至是不同的核心連接起來,讓單片SoC實現性能、功耗和成本的最佳組合。
在架構層面,提供標量、矢量、矩陣和空間的多種架構組合,部署在CPU、GPU、FPGA和加速器套件之中。
此外,內存和存儲配備指數級的內存層級架構?;ミB方面,從片上、封裝內互連、處理器間互連、數據中心互連到無線互連。安全也是其中的重中之重。
值得一提的是軟件層面,英特爾有1.5萬名軟件工程師,他們的“One API”項目就是旨在簡化跨CPU、GPU、FPGA、人工智能和其它加速器的各種計算引擎的編程。
未來幾年,AI模型的復雜性以及對大規模深度學習計算的需求將爆發式增長。AI正在走向一個異構的世界。概況來說,英特爾在AI時代新的方法論概括起來就是:AI硬件趨于異構,軟件趨于統一,最后一定是軟硬件的綜合體。
<蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <文本链> <文本链> <文本链> <文本链> <文本链> <文本链>