一個記憶無法統治所有。 我們呈現𝗟𝗼𝗚𝗲𝗥,一種新的混合記憶架構,用於長上下文的幾何重建。 LoGeR使得在高達𝟭𝟬𝗸幀/公里的尺度上穩定重建成為可能,具有序列長度的線性時間擴展、完全前饋推理,並且無需後期優化。 然而,它的表現與強大的基於優化的管道相匹配或超越。(1/5) @GoogleDeepMind @Berkeley_AI