Pada tahun 2022, NVIDIA memperkenalkan arsitektur GPU generasi terbaru mereka yang dinamai Lovelace, untuk menghormati Ada Lovelace, tokoh sejarah yang dikenal sebagai programmer komputer pertama di dunia. Arsitektur Lovelace merupakan penerus dari Ampere dan membawa lompatan besar dalam performa grafis serta kemampuan kecerdasan buatan (AI), terutama dalam bidang gaming, kreativitas digital, dan pemrosesan AI.
Salah satu fitur paling menonjol dari arsitektur Lovelace adalah penggunaan proses fabrikasi TSMC 4nm, yang membuat GPU ini lebih efisien dalam konsumsi daya dan memiliki kepadatan transistor yang jauh lebih tinggi. Sebagai contoh, GPU RTX 4090 berbasis Lovelace memiliki sekitar 76 miliar transistor—lonjakan signifikan dibandingkan generasi sebelumnya.
Dalam konteks AI, Lovelace memperkenalkan Tensor Core generasi keempat yang dirancang untuk mempercepat inferensi dan pelatihan model AI. Tensor Core ini sangat dioptimalkan untuk menangani tipe data FP8, FP16, dan INT8, memungkinkan pemrosesan AI yang jauh lebih cepat dan efisien. Ini sangat penting untuk teknologi seperti DLSS 3 (Deep Learning Super Sampling), di mana GPU tidak hanya merender grafis secara tradisional, tapi juga menggunakan AI untuk mensintesis frame tambahan, meningkatkan frame rate secara drastis tanpa membebani GPU.
Lovelace juga menghadirkan Optical Flow Accelerator generasi baru yang bekerja selaras dengan Tensor Core untuk memperkirakan gerakan antar frame—komponen penting dalam DLSS 3. Selain itu, arsitektur ini mendukung ray tracing generasi ketiga, memungkinkan simulasi cahaya yang lebih realistis di lingkungan game dan simulasi 3D.
Lebih dari sekadar alat gaming, GPU Lovelace digunakan juga dalam konteks komputasi berat seperti pengembangan AI generatif, pelatihan model bahasa besar (LLM), rendering real-time, dan inferensi komputer vision di bidang medis dan otonomi kendaraan.
Dengan performa tinggi, efisiensi daya, dan optimalisasi AI yang mutakhir, Lovelace menjadi tonggak penting dalam evolusi GPU NVIDIA. Arsitektur ini menandai bagaimana GPU tidak lagi hanya alat visual, tapi juga mesin komputasi AI yang canggih untuk berbagai industri modern.