據外媒CNBC報道,FPGA巨頭(tóu)Xilinx就(jiù)收(shōu)購Mellanox事宜,聘請巴克萊銀行(háng)為其(qí)謀劃。消息人士透露,該(gāi)交易近期不會達成,並有(yǒu)可(kě)能以流(liú)產告終。其中兩名消息人士稱,如(rú)果(guǒ)交易最終能夠達(dá)成,則(zé)預計將在12月(yuè)對(duì)外宣(xuān)布。
Mellanox是一家總部(bù)位於以(yǐ)色列(liè)的公(gōng)司,該公(gōng)司成立於1999年(nián)。公(gōng)司(sī)官網(wǎng)介(jiè)紹,他們是一家(jiā)在全球範圍(wéi)內(nèi)為服務(wù)器和(hé)存儲提供端到端Infiniband和以太網互(hù)聯解決方案的領軍(jun1)企業。他們(men)提供的互連解決方案通過低延遲、高吞吐量(liàng)的強(qiáng)大性能,可以極大的提升(shēng)數據中心效率,在應用和係統之間快速的(de)傳(chuán)遞數(shù)據,提升係(xì)統可用性。Mellanox為業內提供(gòng)了加快內部設備互聯的技術和產品,包(bāo)括網絡適(shì)配器、交換機、軟件和芯(xīn)片,這些產(chǎn)品都可以加速應(yīng)用的執行,並最大化(huà)的提升HPC、企業數據中(zhōng)心(xīn)、Web2.0、雲計(jì)算、存儲(chǔ)以及金融服務的效率。
據媒體報(bào)道,收購邁絡思可令賽靈思獲得更多可在(zài)數據中心市場上(shàng)出售的產品。
我(wǒ)們知道,隨(suí)著(zhe)在服務器,存儲和嵌入(rù)式係統(tǒng)中使(shǐ)用多個多(duō)核處理器,I / O帶寬(kuān)不(bú)能跟上處理器(qì)的(de)進(jìn)步,造成性能瓶頸。快速(sù)數據訪問(wèn)已(yǐ)成(chéng)為(wéi)利(lì)用微(wēi)處理器增加的計(jì)算能力的關(guān)鍵要求。此外(wài),互連(lián)延遲已成為集群整體(tǐ)性能的(de)限製因素。
另外,集群服務器和存儲係統作為關鍵IT工具(jù)的不斷增長的使用導致了互連配置的(de)複雜性的增加。 EDC中的配置和連接數量也有所(suǒ)增加,使得係統(tǒng)管理變得越來越複雜,操作昂貴。另外,使用不同的互連基礎設施管理(lǐ)多個軟件(jiàn)應用程序已變得越來越複雜(zá)。
再者,隨(suí)著附加的計算和存儲(chǔ)係(xì)統或節點被(bèi)添加到集群中,互連必(bì)須能夠(gòu)擴展,以便提供集群(qún)性能的預期增加。此(cǐ)外,對數據(jù)中心能源效率的更多關注(zhù)正在導致IT經(jīng)理們尋求采用(yòng)更節能的方法。
同(tóng)時,大(dà)大多數互連解決(jué)方(fāng)案不是設(shè)計為(wéi)在大型集群(qún)環境中使(shǐ)用時(shí)提供可(kě)靠的連接,從而導致數據傳輸中斷。由於EDC中的更多應用程(chéng)序共(gòng)享(xiǎng)相同的互連,因此(cǐ)需要高級流量管理和應用程(chéng)序分區來保持(chí)穩定性並減(jiǎn)少係統停機時間。大多數互連解決方案不提供此類功能。
據維(wéi)基百科,Mellanox正(zhèng)在深耕的InfiniBand是(shì)一個(gè)用於高性能計算的計算機網絡通信標準,它具有極(jí)高的吞吐量和極低的延遲,用於計算機(jī)與(yǔ)計(jì)算機之間的數據互連。InfiniBand也用作服務(wù)器與存儲係統之間的直接或交換互連,以及存儲係統之間的互連。總體來看,這個技術有以下(xià)優點:
首先,被設(shè)計為嚴重依賴通信(xìn)處理(lǐ)的其他(tā)互連技術相比,InfiniBand被(bèi)設計用於在IC中實現,以減輕CPU的通信處(chù)理功能。 InfiniBand能夠相對於其他(tā)現有的(de)互連技(jì)術提(tí)供優越的帶寬和延遲,並(bìng)且每(měi)個連續的產品都(dōu)保持了這一優(yōu)勢。例如,我(wǒ)們目前的InfiniBand適配器(qì)和交(jiāo)換機提供高達100Gb / s的帶(dài)寬,端到端延遲低於微秒。此外,InfiniBand還充(chōng)分利用了PCI Express的I / O功能,即高速係統總線接口標準。
其次(cì),根(gēn)據獨立的基(jī)準測試報告,InfiniBand解決方案的延遲不到測試以太網解決方案的一半。 光纖通道僅(jǐn)用作存儲互連,通常不會在延遲性能上進行基準(zhǔn)測試。 HPC通常需要低延遲互連解(jiě)決方案。 此(cǐ)外,雲,Web 2.0,存(cún)儲,機器(qì)學習和嵌入式市場(chǎng)中對延遲敏(mǐn)感的(de)應用(yòng)程序(xù)越(yuè)來(lái)越多,因此,使用10Gb / s和(hé)更快(kuài)的行業標準InfiniBand和以太網(wǎng)解決方案有趨勢 ,能(néng)夠(gòu)提供比(bǐ)1Gb / s以(yǐ)太網(wǎng)更低的延遲(chí)。
第三,雖然其他互(hù)連需要使(shǐ)用單獨的(de)電纜連接服務器,存儲和通信基礎設施設備,但InfiniBand允許在單個電(diàn)纜或背板(bǎn)互連上整(zhěng)合多個I / O,這對於刀片(piàn)服務器和嵌入式係統(tǒng)至關(guān)重要(yào)。 InfiniBand還(hái)通(tōng)過單個連接(jiē)整合了集群,通信,存儲和管理數據類(lèi)型的傳輸。
第四(sì),InfiniBand被開(kāi)發(fā)為提供多個係統的(de)高(gāo)可擴展性。 InfiniBand在硬件中提(tí)供通(tōng)信處(chù)理功能(néng),減(jiǎn)輕了(le)該任務的CPU,並使(shǐ)得(dé)添加(jiā)到集群的每個節點的全部資源利用率(lǜ)得以實現。
第五,InfiniBand是唯一(yī)在矽硬件中(zhōng)提(tí)供可靠的端(duān)到端數(shù)據連接的行業(yè)標準高性(xìng)能互(hù)連解決(jué)方案之(zhī)一。此外,InfiniBand還促進虛擬化解(jiě)決方案的部署,從而允許多個應用(yòng)程序(xù)在專(zhuān)用應用程序分區(qū)的同一互(hù)連上(shàng)運行。因此,多(duō)個應用(yòng)程序(xù)在穩定(dìng)連接上同時運(yùn)行,從而最大限度減少停機時間(jiān)。
Mallanox公司(sī)擁有的從光模(mó)塊、網卡、交換機、服務器到有源光纜的全係列200G產品,同(tóng)時他們還提供RDMA(Remote Direct Memory Access,遠程直接內存訪(fǎng)問)技術、 GPU Direct RDMA技術、SHARP(Scalable Hierarchical Aggregation and Reduction Protocol)技術(shù)、NVMe Over Fabric Target Offload技(jì)術、SHIELD(Self-Healing Technology)技(jì)術(shù)和Socket Direct和(hé)Multi-Host技術(shù),相信也是Xilinx 看中他們(men)的一個原因。
但我們應該看到,作為(wéi)互連技術,IB與以太網、光纖通道和其(qí)他專有(yǒu)技(jì)術(例如(rú)克雷公司的(de)SeaStar)有強烈的競爭關係。缺少服務(wù)器核心(xīn)CPU的Mellanox被Xilinx收(shōu)購,也許是一個(gè)不錯的選擇。