跟老黃一比,蘋果突然都顯得有性價比
latest #8
老黃就是知道這點才把高配VRAM綁死在高階款上
這樣能割更多營收
老黃強的還是推理的算力
立即下載
M4 Max讓本地跑一點 慢慢問慢慢答的對話AI還行,連續一堆內容就會慢了
因為後面找不出什麼應用的專項方向用來縮減RAM(或VRAM)用量,
就模型愈來愈大、
但是老黃刀法真是精啊、多加一階VRAM就是型號往上抬、價格多350鎂
為那些得用PC搞AI研究的錢包致敬 ...
48 96都是天文數字¥_¥
昨天裝cuda的軟體都裝不起來,不知道是不是要把原本的驅動砍了
back to top