Внешняя видеокарта Blackmagic eGPU Pro

Компания Blackmagic Design анонсировала новую внешнюю видео карту Blackmagic eGPU Pro. Она разработана для ускорения приложений класса DaVinci Resolve, 3D игр и систем виртуальной реальности. Новинка почти вдвое быстрее оригинальной модели Blackmagic eGPU и позволяет достичь 22 кратного ускорения обработки по сравнению с встроенной картой MacBook Pro с 13‑дюймов.

69322dd91541007620.5549269 (1).jpg

В новой модели Blackmagic eGPU Pro установлен Radeon RX Vega 56, два порта Thunderbolt 3 и четыре USB 3.1, интерфейс DisplayPort для подключения 5K-мониторов, HDMI 2.0 и силовой разъем 85 Вт для зарядки дополнительных устройств. Blackmagic eGPU Pro, разработанный при сотрудничестве с компанией Apple, несет в себе возможности передовой графической станции и значительное ускорение выполнения вычислений для пользователей работающих с профессиональным монтажом и обработкой видео, 3D‑играми и VR‑приложениями, поддерживает использование новейшего программного обеспечения для виртуальной реальности.

Blackmagic eGPU Pro имеет оперативную память HBM2 на 8 ГБ, 2048-битный интерфейс с пропускной способностью 410 ГБ/с, а также 56 вычислительных блоков мощностью до 10,5 терафлопса. Видеокарта AMD Radeon RX Vega 56 гарантирует заполнение экрана со скоростью 94 млрд пикселей в секунду. Кроме того, поддержка технологии Metal компании Apple обеспечивает практически прямой доступ к GPU для максимально эффективной обработки изображения при использовании компьютерных игр и других приложений.

27438cbd1541007620.726686.jpg

Blackmagic eGPU Pro, будучи почти вдвое быстрее оригинальной модели, увеличивает производительность при цветокоррекции и создании эффектов в реальном времени в системе DaVinci Resolve. Это значит, что у пользователей будет оставаться больше времени на творчество, а не на ожидание. В DaVinci Resolve на MacBook Pro с 13-дюймовым дисплеем процессор позволяет достичь 22‑кратного ускорения обработки при выполнении таких операций, как шумоподавление. Кроме того, DaVinci Resolve 15 поддерживает несколько видеокарт и приложение Metal компании Apple, что позволяет извлечь максимум преимуществ из Blackmagic eGPU Pro. Приложение доступно для бесплатной загрузки на веб‑сайте Blackmagic Design и обеспечивает исключительное по качеству редактирование изображения и звука, цветокоррекцию и наложение визуальных эффектов.
Благодаря процессору Blackmagic eGPU Pro геймеры и пользователи, работающие с системами виртуальной реальности, получают более высокое разрешение и кадровую частоту, превосходную передачу цвета и детализацию текстур.

da2ea48a1541007620.267478.jpg

Стильный корпус устройства изготовлен из листового алюминия и имеет уникальную систему охлаждения, которая обеспечивает эффективный отвод тепла. Она отличается исключительно малым уровнем шума, что просто необходимо для работы в студиях постпродакшна, где выполняют монтаж изображения и звука.

Blackmagic eGPU Pro обеспечивает подачу питания мощностью 85 Вт не только на видеокарту, но и на ноутбук с другими устройствами для зарядки через порт Thunderbolt 3. Встроенный блок работает от сети напряжением 100-240 В по стандарту МЭК и позволяет использовать устройство в любой стране мира.

Blackmagic eGPU Pro поступит в продажу в конце ноября по цене 1199$.

404 0 850 3
9
2018-11-02
Хорошее место что бы задать давно мучающий меня вопрос. Справедливо ли включать в название продукта слово Pro, если он использует видеокарту Radeon? В моем представлении Radeon намного хуже чем Nvidia и поэтому должно считаться что использовать их как минимум не профессионально.
2018-11-02
isnakХорошее место что бы задать давно мучающий меня вопрос. Справедливо ли включать в название продукта слово Pro, если он использует видеокарту Radeon? В моем представлении Radeon намного хуже чем Nvidia и поэтому должно считаться что использовать их как минимум не профессионально.
Мне кажется сейчас такое время, когда пора избавляться от подобных стереотипов. "Radeon намного хуже чем Nvidia" уже звучит сомнительно, ведь никакой конкретики данное предложение не несет.
2018-11-02
Денис Стрелкин (Forest Swamp) уже звучит сомнительно, ведь никакой конкретики данное предложение не несет
Непонятно, какое "такое" время и какую именно конкретику вы ожидаете? Если бы я сказал что bmw хуже лада, то вот какую конкретику я должен указать? Или вам разница не известна и вы меня спрашиваете? Я не умею интерпретировать слишком общие вопросы тогда, когда сам задаю вопрос.
2018-11-02
isnakНепонятно, какое "такое" время и какую именно конкретику вы ожидаете? Если бы я сказал что bmw хуже лада, то вот какую конкретику я должен указать? Или вам разница не известна и вы меня спрашиваете? Я не умею интерпретировать слишком общие вопросы тогда, когда сам задаю вопрос.
Такое время, когда по современным соотношениям цены-производительности выгоднее взять Radeon, чем переплачивать за схожую производительность NVIDIA. Берем условно GeForce GTX1060 и Radeon RX580. Выгоднее взять RX580, так как он по цене дешевле и по производительности не уступает. Этой карты вполне хватает, чтобы поиграть в современные игры на ультра настройках. К тому же, скоро выходит RX590, который будет чуть производительнее, но стоимость прогнозируется как у RX580, которая в свою очередь уже дешевеет. "Лучше/хуже" это просто слова. Стоит ориентироваться на ценовую доступность и актуальную производительность.
2018-11-05
Денис Стрелкин (Forest Swamp) Мне кажется сейчас такое время, когда пора избавляться от подобных стереотипов. "Radeon намного хуже чем Nvidia" уже звучит сомнительно, ведь никакой конкретики данное предложение не несет.
Ну на мой взгляд, изделие AMD хуже с профессиональной точки зрения, так как не поддерживает CUDA, а значит обладает куда меньшим спектром применения. Естественно хуже относительно, смотря для чего использовать, если, к примеру, для монтажа в Final Cut, то наверное эта карта лучше оптимизировано, чем аналог от Nvidia
2018-11-05
Балаев Андрей (designer_andrew) Ну на мой взгляд, изделие AMD хуже с профессиональной точки зрения, так как не поддерживает CUDA, а значит обладает куда меньшим спектром применения. Естественно хуже относительно, смотря для чего использовать, если, к примеру, для монтажа в Final Cut, то наверное эта карта лучше оптимизировано, чем аналог от Nvidia
CUDA - проприетарный фреймворк, созданный NVIDIA. Аналог этому есть опенсорсный OpenCL, который поддерживается AMD. К примеру, Blender имеет поддержку и CUDA, и OpenCL. Естественно, это не 100% аналог, но выполняет схожие задачи. Говоря о Final Cut, нашел информацию о том, что поддержка OpenCL под Final Cut Pro X повышает производительность (быстрая обработка эффектов, редактирование FX в реальном времени и т.д.). О поддержке CUDA в FCPX информации я не заметил (возможно, плохо искал).
Также есть ATI Stream Technology, для использования вычислительных возможностей GPU. Про нее я ничего не могу сказать, так как не встречался лично.

С профессиональной точки зрения конечно лучше CUDA, но тем не менее, используя OpenCL профессионал не перестает быть профессионалом. Важен ведь результат, а не обязательное наличие CUDA. :)
А для игроков в целом без разницы, AMD или NVidia. Они играют в одни и те же игры, с одними и теми же настройками графики, поэтому не всегда есть смысл переплачивать за NVidia. К тому же, среди игроков тоже есть свои "профессионалы": стримеры, киберспортсмены и прочие. Разница появляется в основном тогда, когда конкретная игра больше оптимизирована под железо той или иной компании (и то такая разница не всегда сильно заметна).
2018-11-05
Денис Стрелкин (Forest Swamp) CUDA - проприетарный фреймворк, созданный NVIDIA. Аналог этому есть опенсорсный OpenCL, который поддерживается AMD. К примеру, Blender имеет поддержку и CUDA, и OpenCL. Естественно, это не 100% аналог, но выполняет схожие задачи. Говоря о Final Cut, нашел информацию о том, что поддержка OpenCL под Final Cut Pro X повышает производительность (быстрая обработка эффектов, редактирование FX в реальном времени и т.д.). О поддержке CUDA в FCPX информации я не заметил (возможно, плохо искал).
Также есть ATI Stream Technology, для использования вычислительных возможностей GPU. Про нее я ничего не могу сказать, так как не встречался лично.

С профессиональной точки зрения конечно лучше CUDA, но тем не менее, используя OpenCL профессионал не перестает быть профессионалом. Важен ведь результат, а не обязательное наличие CUDA. :)
А для игроков в целом без разницы, AMD или NVidia. Они играют в одни и те же игры, с одними и теми же настройками графики, поэтому не всегда есть смысл переплачивать за NVidia. К тому же, среди игроков тоже есть свои "профессионалы": стримеры, киберспортсмены и прочие. Разница появляется в основном тогда, когда конкретная игра больше оптимизирована под железо той или иной компании (и то такая разница не всегда сильно заметна).
Ну вот я и это и имею ввиду, подразумевая, что Nvidia лучше, потому что универсальная. Там где справится AMD - справится и nVidia, а наоборот далеко не всегда верно. Тот же Redshift и Octane до сих пор не поддерживают красных, а ведь это фактически лидеры в рендеринге на GPU, их продукты сложно заменить, в силу уникальности.

Что же касается игр, то разницы и правда нет, но у нас ресурс не геймерский, вряд ли тут уместно рассуждать о гейминге
2018-11-05
Я так понимаю, что и "Чёрнаямагия" применяется в названии совершенно необоснованно. Совершенно не магия и уж тем более не чёрная. Кстате, "про" может использоваться как индентификация внутри линейки, а не глобальное отношение.

Ребята, вы смотрите на результат маркетинговой уловки и пытаетесь думать, а тут надо чуствовать то что потраченные деньги будут потраченны не зря, в то время как само решение вам не нужно.
2018-11-07
Все эти нвидия vs. амд вкусовщина и субъективщина. В конечном итоге значение имеет то с какой осью, каким софтом и оборудованием планируется работать. Для Final Cut лучше амд это факт (и вообще на маке у амд лучше поддержка), Substance Designer не поддерживает карты AMD FirePro, а если у вас 10-бит монитор, то вам нужно Quadro потому что GTX 10-бит умеет только в интерфейсе (про амд не в курсе) и т.д.
RENDER.RU