Главная / Видеокарта / NVIDIA GeForce GTX 860M SLI vs NVIDIA GeForce GTX 690

NVIDIA GeForce GTX 860M SLI vs NVIDIA GeForce GTX 690

NVIDIA GeForce GTX 860M SLI
43%
Оценка DeviceList
vs
NVIDIA GeForce GTX 690
79%
Оценка DeviceList
Мы сравнили характеристики NVIDIA GeForce GTX 860M SLI и NVIDIA GeForce GTX 690 и составили для вас список преимуществ и сравнительную таблицу. Узнайте, какой из них выбрать в 2024 году.
Преимущества NVIDIA GeForce GTX 860M SLI
Частота ядра
1029 МГц
На 114 МГц (12.5%) лучше
vs
915 МГц
Энергопотребление (TDP)
120 Вт
На -180 Вт (-60%) лучше
vs
300 Вт
Преимущества NVIDIA GeForce GTX 690
Победитель в сравнении
Количество шейдерных процессоров
1536
На 256 (20%) лучше
vs
1280
Ширина шины памяти
512 бит
На 510 бит (25500%) лучше
vs
2 бит
Частота памяти
6008 МГц
На 1008 МГц (20.2%) лучше
vs
5000 МГц
Видео
Видео обзоры NVIDIA GeForce GTX 690

Сравнение всех характеристик

NVIDIA GeForce GTX 860M SLI NVIDIA GeForce GTX 690
Соотношение цена-качество
Сумма всех преимуществ устройства, разделённая на его цену. Чем больше %, тем лучше качество за единицу цены в сравнении со всеми аналогами.
нет данных 17.1 %
Архитектура
Maxwell Kepler
Кодовое имя
нет данных GK104
Тип
Для ноутбуков Десктопная
Цена на момент выхода
нет данных 999 $
Количество шейдерных процессоров
1280 1536
На 256 (20%) лучше
Частота ядра
1029 МГц
На 114 МГц (12.5%) лучше
915 МГц
Частота в режиме Boost
нет данных 1019 МГц
Количество транзисторов
2x 1870 млн 3,540 млн
Технологический процесс
28 нм 28 нм
Энергопотребление (TDP)
Расчётная тепловая мощность показывает средние показатели тепловыделения в работе под нагрузкой, чем больше величина - тем больше возрастают требования к охлаждению и энергопотреблению.
120 Вт
На -180 Вт (-60%) лучше
300 Вт
Интерфейс
нет данных PCIe 3.0 x16
Длина
нет данных 27.9 см
Дополнительные разъемы питания
нет данных 2x 8-pin
Поддержка G-SYNC
Технология G-SYNC от NVIDIA обеспечивает плавный игровой процесс благодаря переменной частоте обновления экрана и устранению визуальных артефактов.
Поддержка SLI
+ +
3D Vision
нет данных +
GPU Boost
+ +
CUDA
Наличие архитектуры CUDA позволяет использовать приложения, которые оптимизированы для параллельных вычислений. Например для разработки и проектирования нейронных сетей.
GeForce Experience
+ нет данных
Поддержка нескольких мониторов
нет данных 4
Количество ядер CUDA
Большое количество CUDA ядер повышают производительность в графических вычислениях, особенно влияют на сглаживание и освещение в играх, скорость тренировки нейронных сетей.
нет данных 3072
Шина
нет данных PCI Express 3.0
Высота
нет данных 11.1 см
HDCP
нет данных +
Максимальное разрешение через VGA
нет данных 2048x1536
Аудио-вход для HDMI
нет данных внутренний
GeForce ShadowPlay
HDMI
BatteryBoost
+ нет данных
3D Gaming
нет данных +
3D Vision Live
нет данных +
FXAA
TXAA
Adaptive VSync
нет данных +
3D Blu-Ray
нет данных +
Видеоразъемы
нет данных 2x Dual Link DVI-I. 1x Dual link DVI-D. 1x Mini-Displayport 1.2
DirectX
DirectX 12 (FL 11_0), Shader 5.0 12 (11_0)
Производительность с плавающей точкой
нет данных 2x 3,130 gflops
Optimus
+ нет данных
DirectX 11
нет данных DirectX 11
Тип памяти
GDDR5 GDDR5
Максимальный объём памяти
Большой объем видеопамяти позволяет запускать требовательные игры с большим количеством текстур, использовать мониторы с высоким разрешением, обеспечивать больше возможностей для майнинга криптовалют.
4 Гб 4 Гб
Ширина шины памяти
Чем больше ширина шины видеопамяти, тем больше данных передаётся графическому процессору за единицу времени и лучше производительность в требовательных играх.
2 бит 512 бит
На 510 бит (25500%) лучше
Частота памяти
Высокая частота памяти положительно влияет на скорость работы видеокарты с большим объёмом данных.
5000 МГц 6008 МГц
На 1008 МГц (20.2%) лучше
Разделяемая память
- нет данных
Пропускная способность памяти
Чем больше пропускная способность передачи данных - тем больше эффективный объем оперативной памяти может использовать ПК.
нет данных 384
Популярные сравнения