Навигация по странице:
|
Доклад Видеока́рта. Видеокарта также видеоадаптер, графический адаптер, графическая плата
Видеока́рта (также видеоада́птер, графический ада́птер, графи́ческая пла́та, графи́ческая ка́рта, графи́ческий ускори́тель, 3D-ка́рта) — электронное внутреннее устройство, устанавливается в один из разъемов материнской платы, и служит для обработки информации, поступающей от процессора или из ОЗУ на монитор, а также для выработки управляющих сигналов, т.е. видеокарта предназначена для создания графического и видео изображения и вывода его на экран монитора.
История развития компьютерной графики началось уже в 20 веке и продолжается сегодня. Впервые системы компьютерной графики появились вместе с первыми цифровыми компьютерами.
Изначально, несмотря на развитие технологии, пользователь не имел доступа к монитору, графика развивалась на математическом уровне и выводилась в виде текста, напоминающего на большом расстоянии изображение. Художник прежде всего должен был владеть программированием, так как ему приходилось переносить свои работы в компьютер, что требует освоения соответствующей методики.
1971-1985гг. – появились персональные компьютеры, где у пользователя появился доступ к дисплеям.
В первых персональных компьютерах видеоадаптеров не было. Вместо них в оперативной памяти отводилась небольшая область для хранения видеоданных. Первые мониторы, являвшиеся наследниками осциллографов, были векторными, в них изображение строилось не посредством последовательного облучения электронным пучком экрана строка за строкой, а, так сказать, «от точки до точки». Компьютер управлял отклоняющей системой дисплея напрямую. Однако со временем целесообразнее стало подключить компьютер к телевизору. Роль графики резко возросла, но наблюдалось очень низкое быстродействие компьютера. Программы писались на ассемблере. Появилось цветное изображение, содержащее 256 цветовых оттенков.
Телевизионное изображение – растровое, поэтому возникла необходимость в промежуточных блоках для подготовки графической информации к отображению. Для построения картинки теперь требовались специализированные довольно ресурсоемкие вычисления, поэтому понадобились специальные устройства - видеоадаптеры, ориентированные на работу с растровыми мониторами, которые могли бы хранить в себе видеоинформацию, обрабатывать ее и переводить в аналоговую форму для отображения на дисплее.
MDA
Видеокарты стандарта MDA использовались в IBM PC самыми первыми, они были представлены IBM в 1981 году. MDA-адаптеры были монохромными и работали в текстовом режиме. По сути, задача сводилась к тому, чтобы «распечатать» на мониторе текст, как на принтере. Экран монитора условно был «разбит» на определенное количество строк и столбцов. В каждой позиции мог выводиться только один символ.
Текстовый режим в современных операционных системах используется только на этапе начальной загрузки. Но именно MDA мы обязаны текстовому режиму, который используется и до сих пор. Это соответствовало разрешению 720х350 точек, частота регенерации кадра составляла 50 Гц.
Hercules
В то же время выпускается монохромный адаптер высокого разрешения – Hercules. Это первый графический адаптер, то есть кадр строится в видеопамяти, и адресация осуществляется к каждой точке. Этот адаптер получил большое распространение при работе с электронными таблицами для построения графиков и диаграмм, но в силу своей монохромности дальше не поддерживался. Однако очень долгое время данный адаптер продолжал использоваться, так как только он позволял подключить два монитора к одному компьютеру.
CGA
На смену MDA в 1982 году пришел стандарт CGA (Color Graphics Adapter) и привел за собой жесткую стандартизацию. Это была первая революция в видеоадаптерах. Видеоадаптеры CGA были цветными и поддерживали как символьный, так и графический вывод. Палитра CGA состояла из 16 цветов. При разработке CGA главной задачей была универсальность, а потому использовалась стандартная частота развертки – 60 Гц.
Камнем преткновения на этом этапе был объем видеопамяти. Дело в том, что модули памяти в то время были очень дорогими, поэтому CGA-адаптеры стандартно комплектовались 16 Кб видеопамяти. И если в текстовом режиме 80х25 символов видеокарта могла выводить все 16 цветов, то в графическом режиме в разрешении 320х200 памяти хватало лишь на то, чтобы одновременно выводить только 4 цвета, причем не любые, а только стандартные палитры. С этого момента все узлы адаптера стали работать на частоте кадровой развертки, так как возникали конфликты с видеопамятью, проявляющиеся в виде «снега» на экране.
EGA
Первой видеокартой, способной воспроизводить нормальное цветное изображение, был EGA-адаптер (Enhanced Graphics Adpter), представленный IBM в 1984 году. EGA поддерживал 16 цветов и разрешение до 640х350 точек. Стандартный объем видеопамяти составлял 64 Кб.
Видеопамять была разделена на четыре цветовых слоя. Процессор мог заполнять их одновременно. В результате скорость заполнения кадра значительно увеличилась.
VGA
Поистине революционным стандартом можно считать стандарт VGA (Video Graphics Array), представленный IBM в 1987 году. Революцией являлось появление цифроаналогового преобразователя в VGA-адаптерах. Это связано с переходом от цифрового управления монитором к аналоговому. Все дело в том, что VGA-видеокарта могла отображать значительно больше оттенков, чем видеоадаптеры всех предыдущих стандартов: теперь для кодирования каждого цвета требовалось не 2 бита, а целых 6, то есть 18 проводов для передачи на монитор цвета, плюс один провод на сигнал синхронизации, это оказалось нецелесообразно. Поэтому в монитор стали передавать аналоговый сигнал, от уровня которого зависел уровень яркости соответствующей RGB-пушки. В связи с этим возникла необходимость установить на видеоадаптер цифро-аналоговый преобразователь. Вместе с VGA появилось несколько более знакомое всем сокращение RAMDAC (Random Access Memory Digital to Analog Converter).
VGA-адаптеры комплектовались 256 Кб видеопамяти и поддерживали следующие режимы: 640х480 – 16 цветов, 640х400 – 16 цветов, 320х200 – 16 цветов и 320х200 – 256 цветов. Палитра VGA составляла 262144 оттенков. Начиная с этого адаптера, применяются разрешения с соотношением сторон 4:3.
Цифро-аналоговый преобразователь служит для преобразования потока данных, формируемого видеоконтроллером, в уровни интенсивности цвета, подаваемые на монитор. Все современные мониторы используют аналоговый видеосигнал, имеют разрядность по 8 бит на каждый из трех каналов основных цветов (красный, синий, зеленый – RGB), что в сумме дает 16.7 млн. цветов. Обычно ЦАП совмещен на одном кристалле с видеоконтроллером.
XGA
В конце октября 1990 года фирма IBM объявила о выпуске видеоадаптера XGA Display Adapter , это адаптер со своим собственным процессором, который может работать независимо от системной платы.
SVGA
С появлением видеоадаптеров XGA конкуренты IBM решили не копировать эти расширения VGA, а начать выпуск более дешевых видеоадаптеров с разрешением, которое выше разрешения IBM. Эти видеоадаптеры образовали категорию Super VGA (SVGA). Поскольку SVGA-карты не были так же хорошо стандартизированы, как VGA, они отличаются, мягко говоря, большим разнообразием. Чтобы использовать все возможности большинства плат, был необходим драйвер для конкретной видеоплаты. В октябре 1989 года ассоциация VESA(Video Electronic Standards Association), учитывая все сложности, предложила стандарт для единого программного интерфейса с этими платами.
Отличительной чертой SVGA являлся встроенный графический акселератор, который присутствовал практически на всех SVGA-видеоадаптерах. Его появление связано с развитием графических ОС и, в частности, MS Windows.
2D-ускорители
Графический пользовательский интерфейс, появившийся во многих операционных системах, стимулировал новый этап развития видеоадаптеров. Появляется понятие «графический ускоритель» (graphics accelerator-графический акселератор). Поимо элементарных операций, предусмотренных самим стандартом VGA, адаптер способен выполнять и действия более высокого уровня без участия центрального процессора. Например, построение линии по двум точкам, перемещение больших блоков изображения из одного участка экрана в другой (например, при перемещении окна), рисование дуг, шрифтов, поддержка аппаратного курсора и т. п.. Прямым толчком к развитию столь специализированного устройства явилось то, что появился графический пользовательский интерфейс. Он очень удобен, но его использование требует от центрального процессора немалых вычислительных ресурсов, и современный графический ускоритель как раз и призван снять с него львиную долю вычислений по окончательному выводу изображения на экран.
2D-акселератор берет на себя прорисовку таких элементов, как рабочий стол, окна приложений, курсор и так далее. На видеоадаптерах устанавливается память, с которой графический процессор работает по локальной шине, не загружая системную шину процессора. Позднее, с развитием компьютерной техники появляются мультимедиа-акселераторы. Они, помимо ускорения обычных графических действий, могут выполнять ряд операций по обработке видеоданных (например, декодирование видео, записанного в MPEG-1,2 и других форматах), требующих больших расчетных мощностей и серьезно загружающих центральный процессор. Сейчас возможность аппаратной цифровой компрессии и декомпрессии видео, наличие композитного видеовыхода и вывод сигнала на телевизор – являются стандартными функциями.
3D-ускорители
Первоначально областью применения подобных устройств было трехмерное моделирование и САПР, поэтому они выпускались небольшими тиражами, стоили очень дорого (от 1 до 15 тыс. долларов) и были практически недоступны массовому пользователю. Но недавно, когда в роли двигателя прогресса выступили компьютерные игры эволюция видеокарт пошла по пути наделения их все более мощными средствами ускорения трехмерной машинной графики. Видеоадаптеры, способные ускорять операции трехмерной графики, получили название 3D-ускорителей или 3D-акселераторов.
Построение трехмерной сцены происходит следующим образом - в компьютере трехмерные объекты представляются с помощью геометрических моделей, состоящих из сотен и тысяч элементарных геометрических фигур, обычно треугольников. Задаются также пространственное положение источников света, отражательные свойства материала поверхности объекта, степень его прозрачности и т. п. При этом некоторые объекты могут частично загораживать друг друга, между ними может переотражаться свет; пространство может быть не абсолютно прозрачным, а затянутым туманом или дымкой. Для большего реализма необходимо учесть и эффект перспективы. Чтобы поверхность смоделированного объекта не выглядела искусственной, на нее наносится текстура - двухмерная картинка небольшого размера, передающая цвет и фактуру поверхности. Все перечисленные трехмерные объекты с учетом примененных к ним эффектов должны в конечном итоге быть преобразованы в плоское изображение. Эта операция называется рендерингом.
При наличии 3D-ускорителя из всего перечисленного центральный процессор обычно занимается только расчетом координат вершин треугольников при перемещении объектов на сцене (трансформацией), все остальное делает акселератор. Однако в том случае, если 3D-акселератор не может выполнить то или иное действие, оно также выполняется центральным процессором, что, как правило, приводит к сильной потере скорости.
Итак, базовая функция видеокарты - генерировать видеосигнал, идущий на монитор, оставаясь нужной и востребованной, постепенно ушла в тень. В первую очередь, сейчас под графическим адаптером понимают устройство с графическим процессором — графический ускоритель, который и занимается формированием самого графического образа. В последнее время также имеет место тенденция использовать вычислительные возможности графического процессора для решения неграфических задач.
Обычно видеокарта выполнена в виде печатной платы (плата расширения) и вставляется в разъём расширения, универсальный либо специализированный (AGP, PCI Express). Разъем видеокарты выведен на заднюю стенку. К нему подключается монитор. Также широко распространены и встроенные (интегрированные) в системную плату видеокарты — как в виде отдельного чипа, так и в качестве составляющей части северного моста чипсета или ЦПУ; в этом случае устройство, строго говоря, не может быть названо видеокартой.
На сегодняшний день на рынке видеокарт выделяют две основные линейки, выпускаемые фирмами NVIDIA или AMD. Откуда же возникло это противостояние.
Давным-давно, ещё в прошлом тысячелетии, среди производителей видеокарт наблюдался лютый разброд и шатание. Игры выходили со своим набором драйверов под разнообразные устройства (включая видеокарты). Пока фирма S3не выпустила S3 Trio64 V+, который стал своеобразным стандартом: процессор обсчитывал и отправлял данные в память, а видеокарта передавала картинку на дисплей.
В 1994 году в компьютерный мир ворвалася фирма 3dfx Interactive с революционной технологией Voodoo. Voodoo - это был так называемый 3D-ускоритель; дополнительная плата для создания качественной высокопроизводительной графики. Важное отличие от современных решений — данный ускоритель требовал наличие обычной (2D) видеокарты. Для своих видеокарт компания 3dfx разработала API — Glide — удобное средство работы с Voodoo.
Осознав преимущество нового рынка, в борьбу за потребителя включились и другие крупные игроки, 3D RAGE от ATI, RIVA от NVIDIA, а также Millennium от Matrox. Масла в огонь подлили и разработчики программного обеспечения, в благородном стремлении стандартизировать (то есть, избавить программистов от необходимости подстраивать свой код для поддержки видеокарт разных производителей): Microsoft выпускает Direct3D (часть библиотеки DirectX), Silicon Graphics — OpenGL.
Стремясь превзойти конкурентов, 3dfx бросила все силы на разработку нового чипсета. Однако в это время вышел GeForce 256 от NVIDIA, который, фактически, забил последний гвоздь в «крышку противостояния».
Для бывшего лидера 3D-ускорителей всё было закончено. Большую часть активов приобрела NVIDIA, и за этим последовало полное искоренение всего, что было связано с 3dfx, включая узнаваемые названия — Voodoo и Glide API. С этого момента, фактически, осталось лишь два производителя высокоскоростных решений для домашних пользователей: ATI и NVIDIA.
В 2000 году компания ATI выпускает культовый процессор нового поколения — Radeon. Бренд оказался настолько популярным, что используется до сих пор. Данный графический процессор был первым решением, целиком поддерживающим DirectX 7.
В разное время пальма первенства переходила то к одной, то к другой компании.
Итак, 2000 год. ATI выпускает линейку «семитысячников» — Radeon 7000 и 7200, а через год — 7500, использующий для изготовления более «тонкий» техпроцесс. Карты поддерживали DirectX 7.0 и OpenGL 1.3. NVIDIA выкидывает на рынок GeForce 2 и GeForce 3, поддерживающие DirectX 7 и OpenGL 1.2.
Следующее поколение видеокарт от ATI «восьми-» и «девятитысячники» с поддержкой DirectX 8.1 и OpenGL 1.4. NVIDIA выпускает GeForce4 и GeForce 6 видеопроцессоры стали поддерживать DirectX 9.0c и OpenGL 2.0.
В 2006 году компания ATI приобретается корпорацией AMD. Однако старый бренд сохраняется и выпускаемая продукция продолжает маркироваться как ATI Radeon. Новые «двухтысячники» — HD2000 — поддерживают DirectX 10.0 и OpenGL 3.3. Уменьшение техпроцесса привело к снижению тепловыделения и позволило безболезненно нарастить количество потоковых процессоров, отвечающих за обработку графики. Наиболее топовые решения получают память GDDR5 (младшие модели используют GDDR3).
А вот компания NVIDIA совершает прорыв в вычислениях, выпустив восьмое поколение своего продукта — GeForce 8. Помимо поддержки DirectX 10 и OpenGL 3.3, поддерживается технология CUDA, с помощью которой можно часть вычислений переложить с основного процессора на процессоры видеокарты. Вместе с данной технологией была представлена ещё одна — PhysX — которая для вычислений могла использовать либо центральный процессор, либо процессор видеокарты с поддержкой CUDA.
Наши дни
В 2012 году обе корпорации представили обновлённые линейки своих продуктов: GeForce 600 от NVIDIA и HD7000 от AMD.
Графические процессоры от NVIDIA получили обновлённую начинку, основанную на архитектуре Kepler, благодаря чему увеличилась производительность и снизилось тепловыделение. 28 нм техпроцесс также пошёл на пользу (в картах начального уровня используется 40 нм). Доступные технологии — DirectX 11.1 и OpenGL 4.3.
Чипсеты AMD получили архитектуру Graphics Core Next, производство ведётся по 28 нм процессу. Доступные технологии — DirectX 11.1 и OpenGL 4.2.
Обе фирмы — AMD и NVIDIA — предлагают решения, способные удовлетворить практически любого пользователя. У обоих корпораций есть решение для 3D — поддержка в играх и фильмах. Видеокарты данных фирм способны выводить изображение на несколько мониторов, вплоть до того, что можно использовать несколько мониторов для одной игры. А ещё, у AMD и NVIDIA есть технологии, позволяющие объединяться несколько видеокарт: CrossFire и SLI соответственно, благодаря чему производительность в некоторых играх, фактически, удваивается (и даже утраивается при установке 3 карт).
Осталось лишь определиться, какие из функций нужны и сколько денег на это готовы потратить.
Однако наверняка у вас назрел вопрос: какая же видеокарта на данный момент является самой быстрой? Пока это двухпроцессорный флагман, AMD Radeon HD 7990, построенной на 2-ух графических процессорах AMD Radeon HD 7970. Но помните: фирмы не стоят на месте и каждый день разрабатывают и выпускают новые линейки видеокарт, передавая пальму первенства
|
|
|