🎤 爲偶像應援 · Gate送你直達 Token of Love! 🎶
家人們,現在在Gate廣場爲 打 Token of Love CALL,20 張音樂節門票等你來瓜分!🔥
泫雅 / SUECO / DJ KAKA / CLICK#15 —— 你最期待誰?快來一起應援吧!
📌 參與方式(任選,參與越多中獎幾率越高!)
1️⃣ 本帖互動
點讚 & 轉發本帖 + 投票你最愛的藝人
評論區打出 “我在 Gate 廣場爲 Token of Love 打 Call !”
2️⃣ 廣場發帖爲 TA 打 Call
帶上 #歌手名字# + #TokenOfLove#
發帖內容任選:
🎵 最想現場聽到的歌 + 心情宣言
📣 應援口號(例:泫雅女王衝鴨!Gate廣場全員打 Call!)
😎 自制表情包/海報/短視頻(加分項,更容易中獎!)
3️⃣ 推特 / 小紅書發帖打 Call
同樣帶上 #歌手名字# + #TokenOfLove#
內容同上,記得回鏈到表單 👉️ https://www.gate.com/questionnaire/7008
🎟️ 獎勵安排
廣場優質發帖用戶:8張門票
廣場幸運互動用戶:2張門票
Twitter 優質發帖用戶:5張門票
小紅書優質發帖用戶:5張門票
📌 優質帖文將根據文章豐富度、熱度、創意度綜合評分,禁止小號水貼,原創發帖更易獲獎!
🕒 8
Cookie上面Openledger這期的活動還剩最後10h ~
@cookiedotfun @OpenledgerHQ
之前懶了很久,一直在發Sapien,最後快照定格在了80多名…… 最後10h再嘴一篇Openledger
今天這篇來講哈妹剛看完 @OpenledgerHQ 的技術文檔,不吐不快。
這個框架在 AI 部署效率上我承認算得上有突破,但如果是「革命性」還差些距離。
一、內存佔用從 40-50 GB 降到 8-12 GB 是個亮點,特別是對於中小型企業來說。
不過文檔裏沒提的是,這種優化很大程度上依賴於 CUDA 內核的 hack,長期維護成本可能會很高。
大家平時應該也見過類似的項目,初期性能指標驚豔,三個月後就開始各種奇怪的 OOM 錯誤。
二、模型切換時間<100 ms ?
在實際生產環境中,考慮到網路延遲和冷啓動問題,能達到 200 ms 就已經謝天謝地了。
文檔裏那些 benchmark 都是在理想環境下測的,沒猜錯的連基本的壓力測試數據都沒放。小於100ms有沒有參考線這點還需要實踐驗證。
三、GPU 擴展方案是不是畫餅。
基本的拓撲結構設計暫時沒公布,要知道在分布式環境下,LoRA 適配器的同步會是個噩夢。
去年有個類似項目就是死在這上面,@KaitoAI 應該還記得那件事。
四、邊緣設備支持倒是真需求。
看到 Jetson Nano 的優化時我眼前一亮,畢竟現在市面上的方案要麼太重,要麼精度損失太大。
不過文檔裏提到的量化技術,說實話就是普通的 QAT 換了個名字,@cookiedotfun 團隊兩年前就玩剩下的東西。
五、說到區塊鏈部分看過的人懂得都懂。
AI 決策上鏈聽起來很美,但文檔裏完全沒提 gas 費怎麼解決。一個簡單的推理請求就要寫幾十條鏈上記錄,這成本長期下來誰扛得住?
不如直接用中心化日志+定期 Merkle root 上鏈來得實在。
當然也不是全盤否定。
動態加載適配器的設計確實巧妙,特別是那個 zero-shot 自動微調的思路,雖然名字起得中二,但技術路線是對的。
如果能解決內存碎片問題,這個功能可以成爲殺手鐧的!!!
總的來說,要做到像白皮書說的那樣徹底改變 AI 服務模式,也不是一蹴而就的,持續看好~
#Openledger