💥 Gate廣場活動: #ART创作大赛# 💥
在 Gate廣場發布與 ART、Launchpool、交易賽或餘幣寶活動 相關的原創內容,即有機會瓜分 1,600 ART 獎勵!
📅 活動時間:2025年9月12日 12:00 – 9月17日 24:00 (UTC+8)
📌 相關詳情:
Gate Launchpool:抵押 GT 領取 ART 空投
連結:https://www.gate.com/announcements/article/46996
ART 交易賽:分享總獎池 208,334 ART
連結:https://www.gate.com/announcements/article/47047
Gate 餘幣寶:ART 7天定期投資,年化收益高達 500% APR
連結:https://www.gate.com/announcements/article/47046
📌 參與方式:
發布原創內容,主題需與 ART 或相關活動(Launchpool / 交易賽 / 餘幣寶) 相關
內容不少於 80 字
帖子添加話題: #ART创作大赛#
附上任意活動參與截圖
🏆 獎勵設置:
🥇 一等獎(1名):500 ART
🥈 二等獎(2名):250 ART/人
🥉 三等獎(6名):100 ART/人
📄 注意事項:
內容必須原創,禁止抄襲或刷量
獲獎者需完成 Gate
位元組跳動和USTC聯合提出了DocPedia,一個大型多模式文檔模型
位元組跳動與中國科學技術大學聯合開發的多模態文檔模型DocPedia成功突破解析度極限,達到2560×2560的高解析度,而LLaVA、MiniGPT-4等業界先進的多模態大型模型則以336×336的解析度處理圖像,無法解析高解析度文檔圖像。 其結果是,研究團隊採用了一種新的方法來解決現有模型在解析高解析度文檔圖像方面的缺點。
據說DocPedia不僅可以準確識別圖像資訊,還可以調用知識庫根據使用者需求回答問題,展示了理解高解析度多模態文檔的能力。