隨著當(dāng)下AI的高速發(fā)展,今年將會(huì)迎來(lái)“大模型應(yīng)用爆發(fā)元年”。市面上不少大模型產(chǎn)品應(yīng)運(yùn)而生,在大模型普惠應(yīng)用井噴的時(shí)代,這類(lèi)產(chǎn)品的使用存在許多門(mén)檻和風(fēng)險(xiǎn),比如高昂的服務(wù)器部署成本、在運(yùn)行過(guò)程中會(huì)過(guò)度依賴(lài)網(wǎng)絡(luò)狀態(tài)、以及難以保障數(shù)據(jù)的安全性等問(wèn)題。
為了解決大模型產(chǎn)品使用期間所產(chǎn)生的算力成本高、網(wǎng)絡(luò)波動(dòng)、數(shù)據(jù)隱私等問(wèn)題,F(xiàn)irefly開(kāi)源團(tuán)隊(duì)推出可本地化部署的人工智能盒子:AIBOX-1684X
AIBOX-1684X支持主流大模型私有化部署,僅掌心大小的體積就能把AI能力私有化,能夠滿足個(gè)性化的AI部署!其算力高達(dá)32Tops,擁有八核2.3GHz處理器,兼具穩(wěn)定性、私密性、精致小巧等特性。
AIBOX-1684X幾乎支持目前主流大模型的本地化運(yùn)行,包括LLaMa3,ChatGLM3,Qwen等語(yǔ)言大模型,SAM等視覺(jué)大模型,以及Stable Diffusion AI繪圖
本地化部署,無(wú)懼?jǐn)嗑W(wǎng)
無(wú)需網(wǎng)絡(luò)即可使用AI的能力,不受網(wǎng)絡(luò)狀態(tài)影響,任務(wù)運(yùn)行更穩(wěn)定
開(kāi)源透明,安全無(wú)風(fēng)險(xiǎn)
使用全開(kāi)源AI模型工具鏈,透明可信任,做到零安全隱患
精致小巧,隨處部署
僅掌心大小,10cm內(nèi)的小方盒,表面柔潤(rùn)精致的鋁合金切割工藝,在哪部署都合適
千字文本生成僅需10.2秒
AIBOX在本地運(yùn)行時(shí),擁有極快的響應(yīng)時(shí)間,能夠更好地提升用戶體驗(yàn)。在Qwen1.5-1.8B模型中,推理性能可達(dá)到32.5 token/s,相當(dāng)于其生成一篇1000字的文章僅需約10.2秒,可實(shí)現(xiàn)自然語(yǔ)言的快速問(wèn)答。
標(biāo)準(zhǔn)圖像生成僅需7秒
支持 AIGC 領(lǐng)域的 Stable Diffusion V1.5 圖像生成模型,在Stable Diffusion V1.5模型中,生成512* 512尺寸的圖片僅需約7秒。
○ Meta旗下最新開(kāi)源大模型Llama3運(yùn)行效果演示:
○ 清華與智譜合作研發(fā)的ChatGLM3-6B演示:
○ 阿里通義千問(wèn)開(kāi)源大模型Qwen1.5-1.8B演示:
AIBOX支持所有主流深度學(xué)習(xí)框架,包括TensorFlow、PyTorch、MXNet、PaddlePaddle、ONNX和Darknet,并支持自定義算子開(kāi)發(fā)。
搭載SOPHON算能智算處理器BM1684X,最高主頻2.3GHz,最高支持32路1080P H.264/H.265的視頻解碼,32路1080P高清視頻全流程處理(解碼+智能分析)
AIBOX-1684X已正式發(fā)售,超高性?xún)r(jià)比,一次購(gòu)買(mǎi),終生享用
業(yè)務(wù)聯(lián)系:sales@t-firefly.com
產(chǎn)品購(gòu)買(mǎi):Firefly自營(yíng)店
2024-10-09 09:29
2024-08-14 14:16
2024-06-27 11:01
2024-04-30 14:23
2020-03-31 17:18