Karta graficzna – Wikipedia, wolna encyklopedia

Karta graficzna Gigabyte RTX 4070 Aero
Karta graficzna MSI RTX 2080 Gaming X Trio
Procesor graficzny karty 6600GT
Jedna z kart Nvidia – GeForce 8800 GTS

Karta graficzna – w węższym rozumieniu karta rozszerzeń komputera która przetwarza dane graficzne, adaptując je na sygnał odpowiedni do wyświetlenia przez monitor lub inne urządzenie wyjściowe[1][2]. W szerszym znaczeniu obejmuje każdy układ zawierający procesor graficzny (GPU), niezależnie od tego, czy jest to karta rozszerzeń[3], zintegrowana część płyty głównej[4], procesora[5][6][7][8], specjalistyczny moduł przeznaczony do zastosowań naukowych, karty w sieciach neuronowych[9] czy karty do kopania kryptowalut[10].

Historia

[edytuj | edytuj kod]

Frame buffer

[edytuj | edytuj kod]

Najwcześniejszym komercyjnym protoplastą kart graficznych był frame buffer (bufor ramki) o handlowej nazwie Picture System, z roku 1974[11] firmy Evans & Sutherland, wyświetlał obraz w 256 odcieniach szarości o rozdzielczości 512 na 512 pikseli. Współcześnie bufor ramki to integralna część struktury każdej karty graficznej, czyli wydzielony obszar pamięci VRAM[12][13][14].

Przed główną erą GPU

[edytuj | edytuj kod]

Pierwszą kartą graficzną produkowaną na masową skalę, która implementowała ideę osobnego procesora do przetwarzania grafiki, podobnie jak we współczesnych konstrukcjach, był IBM Professional Graphics Adapter (PGA) z 1984 roku, przeznaczony dla komputerów IBM XT i IBM PC/AT[15][16]. W przeciwieństwie do współczesnych GPU, które przetwarzają dane równolegle, korzystając z wielowątkowości[17], PGA posiadał procesor 8088[16], który przetwarzał dane sekwencyjne z podstawowym pipeliningiem, zgodnie z ówczesną architekturą x86[18]. Aż do wczesnych lat 80. XX wieku, przed pojawieniem się rozwiązań zastosowanych w PGA, systemy graficzne były jednostkami zajmującymi się obsługą pamięci ramki do przechowywania i generowania obrazu, zintegrowanym buforem ramki[19][20].

W latach 90 modele kart graficznych miały ograniczoną wydajność i oferowały podstawowe funkcje graficzne i technologie 3d. Główni producenci tego okresu to: SGI cards; 3DFX (Voodoo); Nvidia(TNT); ATI (Rage); Matrox[21].

W 1996 3dfx wypuszcza na rynek, pierwszy powszechnie dostępny akcelerator 3d o nazwie Voodoo Graphics, później znany jako Voodoo 1. Glide interfejs programistyczny opracowany dla tych kart, stał się popularnym standardem, na komputery PC zgodne z architekturą x86 w drugiej dekadzie lat 90, przed erą DirectX.

Termin "GPU" (Procesor graficzny) został wprowadzony dopiero w 1999 roku przez NVIDIA[22].

Główna era GPU[23]

[edytuj | edytuj kod]
  • Pierwsza generacja[24] 1999 DirectX 7 Obejmuje postęp w technologiach 3D, większą wydajność, wprowadzenie akceleracji sprzętowej. Ukucie pojęcia GPU przez NVIDIA[25].
  • Druga generacja[26] 2001-2006 DirectX 8,9. Programowalne vertex (wierzchołki) i geometry shaders (cieniowanie geometryczne), Shader Model 1.0, 2.0 i 3.0. Seria ikonicznych GPU GeForce 3.
  • Trzecia generacja[27] 2006-2009 DirectX 10, 11. CUDA (dla NVIDIA), Shader Model 4.0. Pierwsza seria GPU kompatybilna z DirectX 10 – NVIDIA GeForce 8.
  • Czwarta generacja[28] 2009-2015 DirectX 11. Shader Model 5.0. Pierwsza kompatybilna seria GPU z DirectX 11 – AMD Radeon HD 5000.
  • piąta generacja[29] 2015-2020 DirectX 12 i Vulkan – oba API niskopoziomowe, wprowadzenie wielowątkowości. Ikoniczny model karty graficznej tego okresu to 1080ti.
  • Szósta generacja[30] 2020- DirectX 12 ultimate, pełna implementacja ray tracingu.

Rodzaje procesorów graficznych

[edytuj | edytuj kod]

Procesory graficzne (GPU), produkowane na rynek masowy, przez AMD, Intela oraz NVIDIA, dzielimy ze względu na przeznaczenie[31].

1. Procesory dedykowane, przeznaczone do kart graficznych, także tych laptopowych, nie dzielące pamięci RAM z CPU[32].

  • Radeon produkowany przez AMD
  • GeForce produkowany przez Nvidia
  • ARC produkowany przez Intela[33]

2. Procesory zintegrowane, będące częścią płyty głównej lub CPU, dzielące pamięć RAM z CPU[34].

  • Radeony z sufiksem m produkowane przez AMD
  • Intel HD Graphics produkowane przez Intela
  • laptopowe GeForce produkowany przez Nvidia

Produkowane są też inne modele kart graficznych i kart z GPU do zastosowań profesjonalnych i kopania kryptowalut[35].

Funkcje

[edytuj | edytuj kod]

Cechy współczesnych GPU na przykładzie procesorów NVIDIA z 2024[36]:

Narzędzia Deweloperskie: Przemysł Gier: Sztuczna Inteligencja(AI) i Uczenie Maszynowe(ML): Grafika i Obliczenia Wizualne: Wirtualna Rzeczywistość (VR): Technologie Profesjonalne i Renderowania: Optymalizacja i Wydajność:
CUDA GameWorks AI Computing IndeX Virtual Reality DirectX 12 Ultimate GPUBoost
OptiX Ray Tracing Engine GameStream Deep Learning Iray vGPU Pixar Universal Scene Description WhisperMode
PhysX (Developer) G-SYNC Machine Learning Material Definition Language (MDL) PostWorks VLink
RTX Real-Time Ray Tracing Multi-GPU SceniX Optimus
ShadowPlay NVAPI ShadowWorks
ShadowWorks Visual Computing
SLI SceniX
3DVision & Surround
4K
TXAA

Budowa karty graficznej

[edytuj | edytuj kod]

Podstawowe elementy karty graficznej

[edytuj | edytuj kod]
  • procesor graficzny (GPU) – serce karty graficznej
  • Video random-access memory (VRAM) - pamięć RAM karty graficznej
  • wyjścia sygnałów
  • złącze do płyty głównej
  • układ chłodzenia

W przeszłości część kart graficznych posiadała:

  • RAMDAC (ang. RAM + Digital-to-Analog Converter) przetwornik cyfrowo-analogowy – odpowiedzialny za przekształcenie cyfrowych danych z pamięci obrazu na sygnał sterujący dla monitora analogowego; w przypadku kart wyłącznie z wyjściem cyfrowym RAMDAC nie występuje.
  • framegrabber – układ zamieniający zewnętrzny, analogowy sygnał wideo na postać cyfrową (tylko w kartach posiadających przechwytywanie obrazu),
  • procesor wideo – układ wspomagający dekodowanie i przetwarzanie strumieniowych danych wideo; w najnowszych konstrukcjach zintegrowany z procesorem graficznym.

Typy złącz do płyt głównych używane przez karty graficzne

[edytuj | edytuj kod]

historyczne:

  • AGP (Accelerated Graphics Port) – Magistrala specjalnie zaprojektowane dla kart graficznych, wprowadzona w 1997 roku, używana głównie w komputerach osobistych do połowy lat 2000.[37]
  • ISA (Industry Standard Architecture) – Złącze magistrali szeroko stosowane w komputerach zgodnych z IBM PC i ich późniejszych rozwinięciach w latach 80. i wczesnych 90.[38][39]
  • PCI (Peripheral Component Interconnect) – Standard głównej lokalnej magistrali komunikacyjnej w przemyśle komputerowym między 1992 a 2004, został zastąpiony przez PCI-Express[40].
  • PCI-Express (PCIe) wersje 1.0 do 4.0 – Następca PCI i AGP, wprowadzony jako standard w 2004.[41][42]
  • Zorro - Magistrala używana w komputerach Amiga wprowadzona wraz z Amigą 1000 w 1985.[43]

obecne:

Wyjścia sygnału

[edytuj | edytuj kod]

Zasilanie

[edytuj | edytuj kod]

Karta graficzna na złączu PCI Express jest zasilana z płyty głównej do 75 watów[44]. Karty graficzne potrzebujące więcej prądu posiadają dodatkowe złącza zasilania:

  • MOLEX - stosowane w starszych modelach.
  • Złącza PCI-e: W standardowych wersjach: 6-pin dla kart o poborze prądu powyżej 75 watów do 150 watów oraz 8-pin dla kart o poborze prądu od 150 watów[45]. W wersji PCI-e 5.0, 12VHPWR obsługującej do 600 W[46].

Układ chłodzenia

[edytuj | edytuj kod]

Większość kart graficznych do poprawnego działania potrzebuje układu chłodzenia. Najwięcej ciepła wytwarza GPU, dlatego stosuje się trzy rozwiązania:

  • Chłodzenie pasywne - stosowane w mniej wydajnych kartach.
  • Chłodzenie aktywne - poprzez montaż wentylatora lub wentylatorów na radiatorze.
  • Chłodzenie wodne - w kartach o dużej emisji cieplnej montuje się układ chłodzenia wodą.

Elementem wydzielającym ciepło jest również pamięć RAM karty graficznej. Zazwyczaj jest chłodzona wspólnym z GPU układem chłodzenia.

Multi-GPU

[edytuj | edytuj kod]

Historycznie istniały dwie szerzej znane technologie łączenia kart graficznych, w celu zwiększenia wydajności w grach. Pierwsza od Nvidia o nazwie SLI (Scalable Link Interface), wspierana do 2020. Druga od ATI później AMD, funkcjonująca pod różnym nazwami, w różnych okresach czasu jako: ATI Multi-Rendering (AMR); CrossFire; CrossFireX; Multi-GPU (MGPU)[47][48](w kolejności chronologicznej). Rozwijana przez AMD do roku 2019[49]. Zarówno w przypadku AMD, jak i Nvidii, do trybu Multi-GPU wymagany był mostek łączący dwie karty.

Mniej znanym rozwiązaniem było ATI Hybrid CrossFireX, wprowadzone na rynek pod koniec 2007 roku wraz z chipsetami serii AMD 700. Później przemianowane na AMD Dual Graphics[50]. Pozwalało na łączenie dedykowanej karty graficznej z zintegrowanym procesorem graficznym[51], szybko porzucone przez producenta. Także za niszową można uznać SLI (Scan Line Interleave) od 3dfx, z drugiej połowy lat 90 XX wieku, mimo identycznego akronimu jak SLI (Scalable Link Interface) od NIVIDI to różne technologie. W przeszłości jeszcze trzy inne firmy wdrożyły w swoich produktach łączenie kart graficznych. Były to S3 Graphics z MultiChrome, XGI Technology z BitFluent Protocol i Metabyte z Parallel Graphics Configuration.

Współczesne połączenia dla wielu GPU[52]:

  • PCIe
  • NVLink
  • NV-SLI
  • NVSwitch
  • GPUDirect

Różnice w terminologii

[edytuj | edytuj kod]

Wraz z pojawieniem się w 1996 kart Voodoo firmy 3dfx, zrodził się termin akcelerator graficzny. Karty te wymagały obecności w komputerze zwykłej karty graficznej.

W drugiej połowie lat 90 pozostali producenci zdecydowali się na integrację akceleratorów grafiki trójwymiarowej z samymi kartami graficznymi, podobnie jak to miało miejsce z akceleratorami grafiki dwuwymiarowej. Później także firma 3dfx zdecydowała się połączyć swoje akceleratory z kartami graficznymi.

Karta graficzna jest często nazywana GPU, co pochodzi od skrótu angielskiego terminu "Graphics Processing Unit". To określenie odnosi się jednak wyłącznie do procesora graficznego, który stanowi jeden z komponentów karty graficznej.

W polskiej terminologii zintegrowane procesory graficzne nazywane są "integrami" (od angielskiego "Integrated graphics"), zintegrowanymi kartami graficznymi lub zintegrowanymi układami graficznymi. Stanowią one część płyty głównej lub procesora. Technicznie rzecz biorąc, są to procesory graficzne, a nie karty graficzne.

Znaczenie kart graficznych

[edytuj | edytuj kod]

Karty graficzne, oprócz swojej roli w renderowaniu grafiki i obsłudze wyświetlacza, są wykorzystywane do przyspieszania obliczeń w zastosowaniach naukowych, w tym w symulacjach naukowych, analizach danych i badaniach. Dodatkowo, za sprawą swojej mocy obliczeniowej, są często używane do treningu modeli sztucznej inteligencji, ponieważ potrafią szybko przetwarzać duże ilości danych potrzebnych do uczenia maszynowego i głębokich sieci neuronowych[53].

Karty graficzne o dużej mocy obliczeniowej są wykorzystywane w procesie wydobywania, zwłaszcza w przypadku niektórych kryptowalut takich jak Ethereum, które korzystają z algorytmu Proof of Work (PoW).

Przypisy

[edytuj | edytuj kod]
  1. What Is a GPU? Graphics Processing Units Defined [online], intel.com [dostęp 2024-04-23] (ang.).
  2. Składamy komputer. Karta graficzna, budowa, podstawowe informacje, „Poradnik komputerowy”, mamkomputer.info, 18 marca 2016 [dostęp 2016-11-06] (pol.).
  3. Video card | Definition & Facts | Britannica [online], britannica.com [dostęp 2024-04-23] (ang.).
  4. https://www.dobreprogramy.pl/integry-sa-wystarczajace-spada-popularnosc-dedykowanych-kart-graficznych,6628560685389441a
  5. https://www.intel.com/content/www/us/en/products/docs/processors/what-is-a-gpu.html#:~:text=While%20the%20terms%20GPU%20and,board%20that%20incorporates%20the%20GPU.
  6. APU Performance Evaluation for Accelerating Computationally Expensive Workloads - ScienceDirect [online], sciencedirect.com [dostęp 2024-04-23] (ang.).
  7. Zintegrowana karta graficzna czy dedykowana? Którą wybrać? [online], euro.com.pl [dostęp 2024-04-23] [zarchiwizowane z adresu 2022-08-17] (pol.).
  8. https://www.purepc.pl/test-zintegrowanego-uklady-graficznego-radeon-w-procesorze-amd-ryzen-5-7600x-czy-jest-szybszy-od-intel-uhd-770
  9. http://dsp.vscht.cz/konference_matlab/matlab10/full_text/051_kajan.pdf
  10. AMD, Nvidia coin mining graphics cards appear as gaming GPU shortage intensifies | PCWorld [online], pcworld.com [dostęp 2024-04-23] [zarchiwizowane z adresu 2023-08-22] (ang.).
  11. The Evans & Sutherland Pciture System, 1974 [online], computerhistory.org [dostęp 2024-04-23].
  12. GPU Framebuffer Memory: Understanding Tiling [online], Samsung Developer [dostęp 2024-01-21] (ang.).
  13. Microsoft PowerPoint - framebuffer.ppt [online], stanford.edu [dostęp 2024-04-23].
  14. A Deeper Look At VRAM On GeForce RTX 40 Series Graphics Cards | GeForce News | NVIDIA [online], nvidia.com [dostęp 2024-04-23] (ang.).
  15. Thomas Scott Crow, Frederick C. Harris jr., Evolution of the Graphical Processing Unit, University of Nevada Reno, grudzień 2004 (ang.).
  16. a b IBM Personal Computer Professional Graphics Controller Technical Reference, lBM Corporation, 15 sierpnia 1984, s. 1 (ang.).
  17. GPU Performance Background User's Guide - NVIDIA Docs [online], nvidia.com [dostęp 2024-06-06] (ang.).
  18. Don Anderson, Shanley, ISA System Architecture, MindShare, Inc, grudzień 2002, s. 14, Cytat: After executing a JUMP instruction, the microprocessor resumes fetching in-structions from sequential memory locations until another JUMP instruction is executed. Most well-written programs do not contain an excessive number of JUMPs. Statistically then, the microprocessor is executing non-jump instruc-tions the majority of the time. This means that the microprocessor is perform-ing what is commonly referred to as in-line code fetches most of the time. (ang.).
  19. Ian. Buck, The Evolution of GPUs for General Purpose Computing. [online], nvidia.com, 2010 (ang.).
  20. Chris McClanahan, History and Evolution of GPU Architecture [online], Georgia Tech College of Computing (ang.).
  21. Proceedings Template - WORD [online], iczhiku.com [dostęp 2024-04-23].
  22. https://download.nvidia.com/developer/cuda/seminar/TDCI_Arch.pdf
  23. Jon Peddie, The History of the GPU - Eras and Environment, Springer Nature Swizerland AG, 2022, s. 63 (ang.).
  24. Jon Peddie, The History of the GPU - Eras and Environment, Springer Nature Swizerland AG, 2022, s. 66 (ang.).
  25. https://download.nvidia.com/developer/cuda/seminar/TDCI_Arch.pdf
  26. Jon Peddie, The History of the GPU - Eras and Environment, Springer Nature Swizerland AG, 2022, s. 63 (ang.).
  27. Jon Peddie, The History of the GPU - Eras and Environment, Springer Nature Swizerland AG, 2022, s. 72 (ang.).
  28. Jon Peddie, The History of the GPU - Eras and Environment, Springer Nature Swizerland AG, 2022, s. 79 (ang.).
  29. Jon Peddie, The History of the GPU - Eras and Environment, Springer Nature Swizerland AG, 2022, s. 83 (ang.).
  30. Jon Peddie, The History of the GPU - Eras and Environment, Springer Nature Swizerland AG, 2022, s. 91 (ang.).
  31. What Is the Difference Between Integrated Graphics and Discrete [online], intel.com [dostęp 2024-04-23] (ang.).
  32. What Is the Difference Between Integrated Graphics and Discrete [online], intel.com [dostęp 2024-04-23] (ang.).
  33. Intel® Arc™ A-Series Graphics [online], intel.com [dostęp 2024-04-23] (ang.).
  34. What Is the Difference Between Integrated Graphics and Discrete [online], intel.com [dostęp 2024-04-23] (ang.).
  35. Professional Workstations with RTX Graphics | NVIDIA [online], nvidia.com [dostęp 2024-04-23] [zarchiwizowane z adresu 2024-02-05] (ang.).
  36. NVIDIA Technologies and GPU Architectures | NVIDIA [online], nvidia.com [dostęp 2024-04-23] [zarchiwizowane z adresu 2024-01-13] (ang.).
  37. Intel Announces Final Accelerated Graphics Port (AGP) Interface Specification For High-Performance Workstation Market Segment [online], intel.com [dostęp 2024-06-06].
  38. Tom Shanley, Don Anderson, ISA System Architecture, MindShare, Inc, grudzień 2002, s. 428 (ang.).
  39. The IBM PC [online], ibm.com [dostęp 2024-06-06] (ang.).
  40. PCI Case Study [online], intel.ie [dostęp 2024-06-06].
  41. PCI Express* Architecture [online], intel.com [dostęp 2024-06-06] (ang.).
  42. PCI Case Study [online], intel.ie [dostęp 2024-06-06].
  43. Chapter 1: Introduction 1.3 Amiga Bus History, [w:] Dave Haynie, THE ZORRO III BUS SPECIFICATION, Commodore-Amiga, Inc., 20 marca 1991, s. 1-2 (ang.).
  44. The maximum power consumption of the connectors. - GIGABYTE Global [online], gigabyte.com [dostęp 2024-04-23] (ang.).
  45. The maximum power consumption of the connectors. - GIGABYTE Global [online], gigabyte.com [dostęp 2024-04-23] (ang.).
  46. https://members.pcisig.com/site/login?return=%2Fwg%2FPCI-SIG%2Fdocument%2F16495
  47. AMD zmienia nazwę CrossFire na Multi GPU - od teraz wsparcie dla 2x GPU [online], benchmark.pl [dostęp 2024-04-23] (pol.).
  48. AMD Dual Graphics Technology Review - Hardware Secrets [online], hardwaresecrets.com [dostęp 2024-04-23] (ang.).
  49. AMD Radeon RX 5700 XT przetestowany. Jak wypada w popularnym benchmarku? | Gaming Society [online], gamingsociety.pl [dostęp 2024-04-23] (pol.).
  50. AMD Dual Graphics Analysis: Better Benchmarks; Same Experience? | Tom's Hardware [online], tomshardware.com [dostęp 2024-04-23] (ang.).
  51. AMD Dual Graphics Technology Review - Hardware Secrets [online], hardwaresecrets.com [dostęp 2024-04-23] (ang.).
  52. https://www.researchgate.net/publication/334489746_Evaluating_Modern_GPU_Interconnect_PCIe_NVLink_NV-SLI_NVSwitch_and_GPUDirect
  53. http://dsp.vscht.cz/konference_matlab/matlab10/full_text/051_kajan.pdf