首頁|必讀|視頻|專訪|運(yùn)營|制造|監(jiān)管|大數(shù)據(jù)|物聯(lián)網(wǎng)|量子|元宇宙|智能汽車|特約記者
手機(jī)|互聯(lián)網(wǎng)|IT|5G|光通信|人工智能|云計算|芯片|報告|智慧城市|移動互聯(lián)網(wǎng)|會展
首頁 >> 人工智能 >> 正文

大模型企業(yè)對標(biāo):openAI 2024年H2最新進(jìn)展

2024年11月29日 14:05  天翼智庫  

OpenAI業(yè)績超預(yù)期增長,預(yù)測2024年收入將增長131.25%,但研發(fā)新技術(shù)帶來成本飆升的巨大挑戰(zhàn);面向多模態(tài)、深度推理等前沿方向推出GPT-4o系列、o1系列等新模型;持續(xù)創(chuàng)新ChatGPT等產(chǎn)品功能,提升用戶交互體驗(yàn),并逐步探索新營收模式,在全球多地組建本地化團(tuán)隊就近提供服務(wù);受高層離職及企業(yè)轉(zhuǎn)型影響,解散并新建部分團(tuán)隊;新模型發(fā)布帶動用戶生態(tài)持續(xù)繁榮,通過廣泛外部合作持續(xù)夯實(shí)高質(zhì)量數(shù)據(jù)基礎(chǔ)、提升技術(shù)應(yīng)用創(chuàng)新。

表1 Meta近半年最新進(jìn)展的主要指標(biāo)表

注:1)財務(wù)數(shù)據(jù)方面,“當(dāng)前進(jìn)展”列為2024年整體預(yù)測數(shù)據(jù),“變化幅度”列基于2023年相應(yīng)數(shù)據(jù)進(jìn)行計算,全部數(shù)據(jù)源于OpenAI官網(wǎng)、負(fù)責(zé)人對外發(fā)言、公開資料;2)除特別注釋外,“變化幅度”列中定量變化指環(huán)比,定性變化指公司近半年進(jìn)展對比上一階段(截止到天翼智庫團(tuán)隊所做第一輪企業(yè)對標(biāo))的顯著變化;3)紅色向上箭頭表示增加;4)年度經(jīng)常性收入指一年內(nèi)從訂閱客戶處獲得的可預(yù)測收入。

財務(wù)近況:公司創(chuàng)收潛力大,研發(fā)新技術(shù)帶來成本飆升挑戰(zhàn)

2024年收入快速增長,且未來潛力巨大。財務(wù)文件顯示,2024年8月,OpenAI的月收入已達(dá)3億美元,自2023年初以來增長1700%;但毛利率僅41%,遠(yuǎn)低于行業(yè)云軟件初創(chuàng)公司的65%平均水平,OpenAI計劃在2028年前將毛利率提升到67%。2024年10月,OpenAI首席財務(wù)官Sarah Friar接受外媒專訪期間預(yù)測OpenAI的2024年收入將達(dá)到37億美元,與2023年的16億美元相比增長131.25%,預(yù)計其收入明年將飆升至116億美元。隨著增長加速,OpenAI估值水漲船高,在今年10月的一輪融資后估值已達(dá)1570億美元,大約是年初估值的兩倍。

開發(fā)和運(yùn)營更先進(jìn)的AI系統(tǒng)為其帶來巨大開支。OpenAI聯(lián)合創(chuàng)始人Altman曾指出,隨著公司開發(fā)更復(fù)雜的模型,預(yù)計支出將繼續(xù)超過收入增長,可能還需要籌集數(shù)百億美元才能滿足成本。預(yù)估數(shù)據(jù)顯示,OpenAI今年運(yùn)營總成本或?qū)⑦_(dá)85億美元,主要由模型推理、訓(xùn)練、人力成本構(gòu)成,分別為40億、30億、15億美元。推理成本方面,截至今年3月,OpenAI已花費(fèi)近40億美元租用微軟的服務(wù)器集群來支持ChatGPT及其底層大模型的運(yùn)轉(zhuǎn),該集群相當(dāng)于35萬個英偉達(dá)A100芯片,其中約29萬個芯片為ChatGPT提供支持。訓(xùn)練成本(包括支付數(shù)據(jù)的費(fèi)用)方面,截至第一季度,用于OpenAI模型訓(xùn)練的服務(wù)器集群已包括12萬個英偉達(dá)A100,隨著OpenAI加快訓(xùn)練最新旗艦?zāi)P停?xùn)練成本可能將在今年翻一番。人力成本方面,截至目前OpenAI雇用大約1700名員工,隨著該公司與谷歌等科技巨頭爭奪技術(shù)人才,最終人力成本在今年可能將高達(dá)約15億美元。

大模型技術(shù):面向多模態(tài)、深度推理等前沿方向推出新模型

1.新發(fā)布GPT-4o系列模型,提供多模態(tài)處理、低時延交互能力

GPT-4o為端到端多模態(tài)模型,可實(shí)現(xiàn)毫秒級先進(jìn)視覺音頻理解。2024年5月,OpenAI發(fā)布新的“全能模型”(omni model)GPT-4o,能提供與GPT-4同等程度的模型能力,推理速度更快,還能提供同時理解文本、圖像、音頻等內(nèi)容的多模態(tài)能力,具有如下亮點(diǎn):(1)GPT-4o為端到端多模態(tài)模型,模型所有輸入和輸出都由同一神經(jīng)網(wǎng)絡(luò)處理,在文本、推理和編碼智能方面基準(zhǔn)測試實(shí)現(xiàn)GPT-4 Turbo級別性能,同時在多語言、音頻和視覺功能上達(dá)到新的高水位線;(2)毫秒級響應(yīng),GPT-4o對音頻輸入的響應(yīng)時間最短為232毫秒,平均為320毫秒,與人類在對話中的響應(yīng)時間相似;(3)更先進(jìn)的視覺與音頻理解能力、智能感知語氣與語態(tài),GPT-4o支持在對話中隨時打斷,可根據(jù)場景生成多種語調(diào),同時支持視頻對話;(4)API性價比顯著提升,與GPT-4 Turbo相比速度提升2倍、成本降低50%,速率限制提升5倍。

GPT-4o mini模型推進(jìn)實(shí)現(xiàn)更具成本效益的人工智能。2024年7月,OpenAI發(fā)布GPT-4o mini,作為GPT-4o系列最具成本效益的型號,該模型具備以下特點(diǎn):(1)多模態(tài)推理能力,具備文本、圖像、音頻、視頻的多模態(tài)推理能力,已在API中支持文本和視覺輸入,未來計劃擴(kuò)展視頻和音頻的輸入、輸出;(2)性能表現(xiàn)優(yōu)異,在多個全球權(quán)威基準(zhǔn)測試中成績超越GPT-3.5 Turbo等模型,如在MMLU文本智能與推理基準(zhǔn)測試及Human Eval編碼性能測試中分別以82.0%和87.2%的得分領(lǐng)先,在MGSM數(shù)學(xué)推理測試及多模態(tài)推理領(lǐng)域的MMMU評估中分別獲得87.0%和59.4%的高分;(3)成本大幅降低,相比原版GPT-4o模型便宜96%-97%。(4)處理能力較強(qiáng),擁有128k tokens的上下文處理能力,支持16k輸出tokens;(5)安全策略創(chuàng)新,是首個使用全新安全策略“指令層次結(jié)構(gòu)”的AI模型,能優(yōu)先考慮特定指令,使惡意用戶更難讓模型執(zhí)行不當(dāng)操作,有效抵御越獄攻擊、即時注入及系統(tǒng)即時提取等風(fēng)險。

2. 基于GPT-4訓(xùn)練CriticGPT模型以評估高級AI系統(tǒng)內(nèi)容輸出

2024年6月,OpenAI發(fā)布基于GPT-4的模型CriticGPT,旨在找出ChatGPT代碼輸出錯誤、輔助改進(jìn),并更好地幫助工程師評估ChatGPT響應(yīng)質(zhì)量和準(zhǔn)確性。CriticGPT的發(fā)布標(biāo)志著RLHF(基于人類反饋的強(qiáng)化學(xué)習(xí))領(lǐng)域取得重大進(jìn)步,解決人類評估者在評估日益復(fù)雜的AI模型時面臨的核心挑戰(zhàn)。該模型具備如下特點(diǎn):(1)可進(jìn)行智能錯誤捕獲,能深入分析ChatGPT代碼輸出并指出其中錯誤,檢測LLM(大型語言模型)錯誤的準(zhǔn)確率達(dá)63%;(2)可提高評估效率,使用CriticGPT輔助的人類評估者檢查ChatGPT代碼輸出,效率比不使用時高出60%;(3)自然語言反饋,能通過自然語言反饋指出代碼問題,還能幫助訓(xùn)練師撰寫更全面的批評,減少虛構(gòu)問題。

3.新發(fā)布o(jì)1系列推理模型,復(fù)雜推理能力大幅提升

OpenAI o1系列推動AI向更深層次的智能推理與問題解決能力發(fā)展。2024年9月,OpenAI推出o1系列模型,包括o1、o1-preview和o1-mini三款。該系列模型通過模仿人類的推理過程,能夠在回答前進(jìn)行更深入思考,從而處理更復(fù)雜任務(wù),主要特點(diǎn)如下:(1)采用全新推理范式,o1-preview運(yùn)用思維鏈(CoT,Chain of Thought)+自我對弈強(qiáng)化學(xué)習(xí)的推理范式,可將復(fù)雜步驟拆解為更簡單部分,并在當(dāng)前方法無效時嘗試不同方式,代表著Scaling up從預(yù)訓(xùn)練擴(kuò)展至后訓(xùn)練階段;(2)領(lǐng)先的深度推理能力,如o1-preview在物理、化學(xué)和生物學(xué)等復(fù)雜任務(wù)的基準(zhǔn)測試中表現(xiàn)可與博士生媲美,在國際數(shù)學(xué)奧林匹克競賽的資格考試中正確率達(dá)83%,GPT-4o僅為13%;(3)安全性提升,在一項最難的越獄測試中,o1-preview得分84(滿分100),遠(yuǎn)高于GPT-4o的22分,證明o1-preview在安全規(guī)則的執(zhí)行和應(yīng)對違規(guī)嘗試時表現(xiàn)更可靠。

輕量化版本OpenAI o1-mini更好滿足開發(fā)者對高效解決方案的需求。這款經(jīng)過優(yōu)化的推理模型運(yùn)行速度快、使用成本低,非常適合處理編程相關(guān)任務(wù),主要特點(diǎn)如下:(1)性能優(yōu)化,作為o1系列的輕量版本,o1-mini在保持高質(zhì)量輸出的同時大大提高響應(yīng)速度,如單詞推理問題上,o1-mini比GPT-4o快3-5倍;(2)成本效益高,相比o1-preview,o1-mini使用成本降低80%;(3)編程專長,o1-mini在編碼任務(wù)上表現(xiàn)突出,可為開發(fā)者提供高效代碼生成和調(diào)試支持,在Codeforces編碼競賽中,o1-mini獲得1650 Elo的評分,與o1的1673 Elo相當(dāng),高于o1-preview的1258 Elo。

4.推出連續(xù)時間一致性模型促進(jìn)生成式人工智能發(fā)展

2024年10月,OpenAI推出新型連續(xù)時間一致性模型sCM,將開啟視頻、圖像、三維模型、音頻等實(shí)時、高質(zhì)量、跨領(lǐng)域的生成式人工智能新階段。模型主要特點(diǎn)如下:(1)創(chuàng)新提出TrigFlow統(tǒng)一框架,簡化理論公式,整合多個復(fù)雜過程,并讓訓(xùn)練過程更穩(wěn)定,為后續(xù)模型改進(jìn)提供堅實(shí)基礎(chǔ);(2)生成速度顯著提升,僅需兩步采樣即可生成高質(zhì)量樣本,生成速度提升50倍,如15億參數(shù)模型在單個A100 GPU上生成一張圖片只需0.11秒;(3)保持高質(zhì)量輸出效果,采樣步驟答復(fù)減少但生成樣本質(zhì)量與頂尖擴(kuò)散模型相當(dāng);(4)具有跨領(lǐng)域生成能力,不僅適用于圖像生成,還可用于視頻、三維模型和音頻的實(shí)時生成,為多領(lǐng)域應(yīng)用提供發(fā)展廣闊前景。

市場發(fā)展:持續(xù)創(chuàng)新產(chǎn)品功能,逐步探索新商業(yè)模式

1.產(chǎn)品與服務(wù):不斷完善ChatGPT功能,提升用戶交互體驗(yàn)

逐步開放“高級語音模式”(Advanced Voice Mode),提升人機(jī)交互體驗(yàn)。2024年7月,OpenAI面向小部分ChatGPT Plus用戶推出ChatGPT高級語音模式的Alpha版本進(jìn)行測試;9月正式向ChatGPT Plus和Team用戶推出高級語音模式,支持超過50種語言;10月用戶可直接在Windows電腦或Mac客戶端使用高級語音模式。高級語音模式的推出是AI對話技術(shù)的重要革新,使用戶能直接通過語音與ChatGPT進(jìn)行對話,允許隨時打斷和調(diào)整,甚至能創(chuàng)建和回顧記憶,訪問以往交互信息和自定義指令,以提供更加精準(zhǔn)和個性化的反饋,極大提升用戶交互體驗(yàn)。

引入結(jié)構(gòu)化輸出功能(Structured Outputs),顯著提升API可靠性和應(yīng)用精確度。2024年8月,OpenAI在API中引入結(jié)構(gòu)化輸出功能,允許API返回JSON或XML等更易于處理的數(shù)據(jù)格式,以確保模型生成的輸出能完全符合開發(fā)人員提供的JSON架構(gòu),顯著提升API的可靠性。同時,OpenAI更新Python和Node SDK,使開發(fā)者能像使用Pydantic或是Zod對象一樣,簡單提供工具的結(jié)構(gòu)或回應(yīng)格式,SDK便自動處理數(shù)據(jù)類型轉(zhuǎn)換,將開發(fā)者的數(shù)據(jù)類型轉(zhuǎn)換為支持的JSON結(jié)構(gòu)。

發(fā)布GPT-4o with Canvas功能,提高寫作和編程的協(xié)作體驗(yàn)。2024年10月,OpenAI發(fā)布新的交互方式Canvas,允許用戶在一個單獨(dú)窗口中與ChatGPT進(jìn)行深度合作,進(jìn)行詳細(xì)的內(nèi)嵌反饋、針對性的編輯以及內(nèi)容重寫。在編程方面,Canvas包括調(diào)試、代碼審查、添加注釋和在多種語言之間轉(zhuǎn)換代碼等功能;在寫作方面,Canvas提供文本潤色、可讀性調(diào)整、語法和清晰度建議等功能。Canvas功能特別適合需要廣泛編輯和修訂的任務(wù),提升寫作和編程的效率和協(xié)作體驗(yàn)。

發(fā)布ChatGPT Search,正式進(jìn)軍AI搜索領(lǐng)域。2024年10月,OpenAI正式上線搜索功能ChatGPT Search,能使用網(wǎng)絡(luò)最新信息來回答問題,并提供相關(guān)來源的鏈接。ChatGPT Search覆蓋ChatGPT的網(wǎng)頁版、手機(jī)和桌面應(yīng)用,可為用戶提供經(jīng)過AI整合后的直接答案,使信息檢索更加高效、準(zhǔn)確。未來,廣告可能會成為OpenAI下一步在搜索領(lǐng)域盈利的選擇。

2.商業(yè)模式:圍繞ChatGPT業(yè)務(wù)等主業(yè),逐步探索新營收模式

以消費(fèi)者訂閱的ChatGPT業(yè)務(wù)為核心,通過吸引企業(yè)用戶增加收入。2024年10月,OpenAI首席財務(wù)官Sarah Friar表示,目前OpenAI大約75%的業(yè)務(wù)來自消費(fèi)者訂閱,企業(yè)版ChatGPT雖剛起步,但已經(jīng)實(shí)現(xiàn)可觀的年化收入,潛力巨大。企業(yè)版ChatGPT付費(fèi)用戶在2024年9月已突破100萬,較2023年末的15萬增長566.67%。消費(fèi)者用戶方面,ChatGPT付費(fèi)用戶計劃的起價為每月20美元,周活躍用戶達(dá)2.5億,消費(fèi)者用戶付費(fèi)轉(zhuǎn)化率達(dá)5%-6%。2024年7月ChatGPT Plus付費(fèi)用戶數(shù)已突破770萬,較去年同期增長285%,9月o1系列模型發(fā)布引發(fā)新一輪付費(fèi)用戶增長,消費(fèi)者付費(fèi)用戶已突破1000萬。

API直接收入貢獻(xiàn)較弱且已在逐步收縮,未來或轉(zhuǎn)向與Azure深度合作的收入分成模式。調(diào)研機(jī)構(gòu)Future Search曾在2024年7月對OpenAI的收入構(gòu)成進(jìn)行拆解,結(jié)果顯示,為開發(fā)者和企業(yè)提供直接訪問其AI模型的API接口服務(wù)僅為OpenAI貢獻(xiàn)15%的收入,OpenAI也從7月9日起停止來自非支持國家和地區(qū)的API流量以進(jìn)行相應(yīng)業(yè)務(wù)縮減。此外,通過2023年初與微軟Azure合作提供旗下AI模型訪問權(quán)限,OpenAI有望獲得2億美元的年度分成。

3.市場拓展策略:保持技術(shù)領(lǐng)先優(yōu)勢,組建本地團(tuán)隊拓展國際業(yè)務(wù)

堅持開發(fā)最前沿的人工智能模型,將技術(shù)創(chuàng)新視為核心驅(qū)動力。OpenAI始終不斷投入資源進(jìn)行GPT系列模型研發(fā)與升級,Sarah Friar曾在2024年7月對外強(qiáng)調(diào),“對我們來說,最重要的是保持前沿,即建立前沿模型,確保我們最終將通用人工智能(AGI)造福于人類”。11月,OpenAI首席執(zhí)行官Altman指出,OpenAI當(dāng)前重點(diǎn)將聚焦開發(fā)專注于推理和難題解決的模型,以應(yīng)對更復(fù)雜的計算需求與市場挑戰(zhàn)。

通過在全球各地設(shè)立辦事處以更好地服務(wù)全球客戶,并獲得更多與當(dāng)?shù)卣、企業(yè)和合作伙伴進(jìn)行交流和合作的機(jī)會。2024年4月,OpenAI宣布在日本東京設(shè)立該公司在亞洲的首個辦事處。10月,OpenAI宣布計劃在紐約、西雅圖、巴黎、布魯塞爾和新加坡開設(shè)5個新的辦事處,同時不斷擴(kuò)大舊金山、倫敦、都柏林和東京辦事處,以增強(qiáng)全球影響力。OpenAI曾表示,新加坡是全球人均使用ChatGPT比例最高的地區(qū)之一,強(qiáng)調(diào)該地區(qū)對AI應(yīng)用的準(zhǔn)備程度。新加坡辦事處還將與政府主導(dǎo)的支持該地區(qū)AI發(fā)展的AI Singapore合作,OpenAI將向其投資多達(dá)100萬美元,以使自身的AI模型更適用于當(dāng)?shù)卣Z言和文化。

組織及運(yùn)營:向營利性企業(yè)轉(zhuǎn)型,新建團(tuán)隊?wèi)?yīng)對安全及算力需要

多名高層離職,公司向營利性企業(yè)轉(zhuǎn)型,部分團(tuán)隊解散。2024年9月底,OpenAI首席技術(shù)官M(fèi)ira Murati、首席研究官Bob McGrew和研究副總裁Barret Zoph先后宣布離職。此后,Mark Chen被任命為研究高級副總裁,OpenAI的研究工作將由他與首席科學(xué)家Jakub Pachocki共同領(lǐng)導(dǎo),而原11位創(chuàng)始團(tuán)隊成員僅剩Sam Altman和Wojciech Zaremba兩位仍在留任。同期,多家媒體報道OpenAI正計劃重組核心業(yè)務(wù),轉(zhuǎn)變?yōu)闋I利性公益企業(yè),不再由非營利性董事會控制。10月23日,OpenAI專注于通用人工智能開發(fā)的“AGI Readiness”團(tuán)隊負(fù)責(zé)人Miles Brundage宣布離職,計劃在OpenAI之外繼續(xù)從事該領(lǐng)域研究工作,而“AGI Readiness”團(tuán)隊也即將解散。

重點(diǎn)布局AI安全及芯片領(lǐng)域,成立新團(tuán)隊謀求技術(shù)自研。2024年5月,OpenAI宣布董事會成立安全與安保委員會,除OpenAI時任高層外,還聘請并咨詢了其他安全、安保和技術(shù)專家來支持這項工作,包括前網(wǎng)絡(luò)安全官員、為OpenAI提供安全建議的Rob Joyce和John Carlin。該委員會負(fù)責(zé)就OpenAI項目和運(yùn)營的關(guān)鍵安全與保障決策提出建議。據(jù)路透社10月報道,OpenAI將進(jìn)行硬件戰(zhàn)略調(diào)整,組建由約20名工程師組成的芯片開發(fā)團(tuán)隊,與博通和臺積電聯(lián)手打造首款自研芯片,旨在支持其AI系統(tǒng)、優(yōu)化計算資源和降低成本。

行業(yè)影響力:新模型持續(xù)帶動生態(tài)繁榮,外部合作反哺技術(shù)創(chuàng)新

模型性能迭代帶動ChatGPT用戶生態(tài)持續(xù)擴(kuò)大。統(tǒng)計網(wǎng)站tooltester 顯示,2023年5月至2024年4月的一年間,ChatGPT每月訪問量都在16億到18億之間浮動,2024年9月o1系列新模型的發(fā)布帶動用戶生態(tài)快速增長,使ChatGPT躍升為全球訪問量第十一的網(wǎng)站。根據(jù)Similarweb的最新數(shù)據(jù),ChatGPT在2024年10月的月訪問量已突破31億次,相較去年同期同比增長112%,相比同年8月增長18.7%。

通過加強(qiáng)與媒體及科研院所合作,持續(xù)夯實(shí)高質(zhì)量訓(xùn)練數(shù)據(jù)基礎(chǔ)、提升模型技術(shù)應(yīng)用能力。2024年5月至10月,OpenAI先后與《大西洋月刊》、Vox Media、TIME、康泰納仕、赫斯特等美國媒體以及意大利媒體集團(tuán)GEDI簽訂內(nèi)容協(xié)議,將多家媒體內(nèi)容整合至其AI產(chǎn)品中,包括文章、視頻、音頻等多種形式內(nèi)容,將為OpenAI的AI模型提供更為廣泛和多元的數(shù)據(jù)支持,進(jìn)一步提升其技術(shù)水平和應(yīng)用范圍。截至目前,OpenAI已與沃頓商學(xué)院、洛斯阿拉莫斯國家實(shí)驗(yàn)室、美國商務(wù)部國家標(biāo)準(zhǔn)與技術(shù)研究院旗下的美國人工智能安全研究所、博通和臺積電等芯片企業(yè)達(dá)成戰(zhàn)略合作,合作涉及AI教學(xué)投資、生物科學(xué)研究、AI安全研究及測試評估、自研AI芯片生產(chǎn)等。

本文作者

江嘉琳

戰(zhàn)略發(fā)展研究所

二級分析師

暨南大學(xué)區(qū)域經(jīng)濟(jì)學(xué)碩士,在區(qū)域市場分析、區(qū)域政策研究、用戶研究、產(chǎn)品體驗(yàn)領(lǐng)域有豐富積累,聚焦視聯(lián)網(wǎng)、數(shù)字生活等領(lǐng)域研究工作。

張媛玥

戰(zhàn)略發(fā)展研究所

一級分析師

就職于中國電信研究院,長期從事人工智能、工業(yè)互聯(lián)網(wǎng)等領(lǐng)域的技術(shù)及產(chǎn)業(yè)研究。

王曉娣

戰(zhàn)略發(fā)展研究所

助理分析師

大連理工大學(xué)碩士,就職于中國電信研究院,專注于人工智能、工業(yè)互聯(lián)網(wǎng)等領(lǐng)域技術(shù)及產(chǎn)業(yè)研究工作。

編 輯:章芳
飛象網(wǎng)版權(quán)及免責(zé)聲明:
1.本網(wǎng)刊載內(nèi)容,凡注明來源為“飛象網(wǎng)”和“飛象原創(chuàng)”皆屬飛象網(wǎng)版權(quán)所有,未經(jīng)允許禁止轉(zhuǎn)載、摘編及鏡像,違者必究。對于經(jīng)過授權(quán)可以轉(zhuǎn)載,請必須保持轉(zhuǎn)載文章、圖像、音視頻的完整性,并完整標(biāo)注作者信息和飛象網(wǎng)來源。
2.凡注明“來源:XXXX”的作品,均轉(zhuǎn)載自其它媒體,在于傳播更多行業(yè)信息,并不代表本網(wǎng)贊同其觀點(diǎn)和對其真實(shí)性負(fù)責(zé)。
3.如因作品內(nèi)容、版權(quán)和其它問題,請在相關(guān)作品刊發(fā)之日起30日內(nèi)與本網(wǎng)聯(lián)系,我們將第一時間予以處理。
本站聯(lián)系電話為86-010-87765777,郵件后綴為cctime.com,冒充本站員工以任何其他聯(lián)系方式,進(jìn)行的“內(nèi)容核實(shí)”、“商務(wù)聯(lián)系”等行為,均不能代表本站。本站擁有對此聲明的最終解釋權(quán)。
相關(guān)新聞              
 
人物
中國移動王曉云:6G已經(jīng)進(jìn)入面向產(chǎn)業(yè)技術(shù)創(chuàng)新的全新階段
精彩專題
2024中國算力大會
2024年國際信息通信展
中國信科亮相2024年國際信息通信展
第25屆中國國際光電博覽會
CCTIME推薦
關(guān)于我們 | 廣告報價 | 聯(lián)系我們 | 隱私聲明 | 本站地圖
CCTIME飛象網(wǎng) CopyRight © 2007-2024 By CCTIME.COM
京ICP備08004280號-1  電信與信息服務(wù)業(yè)務(wù)經(jīng)營許可證080234號 京公網(wǎng)安備110105000771號
公司名稱: 北京飛象互動文化傳媒有限公司
未經(jīng)書面許可,禁止轉(zhuǎn)載、摘編、復(fù)制、鏡像