gemini3pro 的上下文 100 万 token 长度的效果

发现问 gemini 问题的时候,它连我很久以前问的问题(不在一个对话里面)都记得,比如它会这么说:

就像你之前关注的 xxxxx 那样

考虑到你对 ttt 和 uuu 比较熟悉

感觉这样很神奇,又很诡异。如果它能记住这么多东西,然后精准构建用户画像,那 Google 这种广告提供商不就能精准推送广告了?