Kompresi data lossless adalah metode komputer untuk menyimpan file dan menggabungkannya ke dalam arsip yang memakan lebih sedikit ruang fisik di memori daripada file tanpa kehilangan informasi apa pun yang ada dalam data dalam proses. Kompresi lossy, sebaliknya, mengurangi ukuran file dengan perkiraan data, dan pemulihan adalah faksimili yang mirip dengan konten file asli. Algoritma yang digunakan untuk kompresi data lossless pada dasarnya adalah seperangkat aturan atau instruksi yang disederhanakan untuk mengkodekan informasi menggunakan lebih sedikit bit memori sambil tetap mempertahankan kemampuan untuk mengembalikan data ke format aslinya tanpa perubahan.
Beberapa jenis file umum yang menggunakan kompresi data lossless termasuk zip berbasis komputer International Business Machines (IBM) dan arsip file gzip berbasis komputer Unix. Juga digunakan adalah format file gambar seperti format pertukaran grafik (GIF), grafik jaringan portabel (PNG), dan file Bitmap (BMP). Algoritme kompresi data juga bervariasi berdasarkan jenis file yang dikompresi, dengan variasi umum untuk teks, audio, dan file program yang dapat dieksekusi.
Dua kategori utama algoritma untuk kompresi data lossless didasarkan pada model statistik data input dan model pemetaan string bit dalam file data. Algoritma statistik rutin yang digunakan adalah transformasi Burrows-Wheeler (BWT), algoritma Abraham Lempel dan Jacob Ziv (LZ77) yang diterbitkan pada tahun 1977, dan metode Prediction by Partial Matching (PPM). Algoritma pemetaan yang sering digunakan termasuk algoritma pengkodean Huffman dan pengkodean Aritmatika.
Beberapa algoritme adalah alat sumber terbuka dan yang lainnya adalah hak milik dan dipatenkan, meskipun paten pada beberapa juga telah kedaluwarsa. Hal ini dapat mengakibatkan metode kompresi terkadang diterapkan pada format file yang salah. Karena fakta bahwa metode kompresi data tertentu tidak kompatibel satu sama lain, menyimpan file campuran sering kali dapat menurunkan komponen file. Misalnya, file gambar dengan teks yang dikompres dapat menunjukkan penurunan keterbacaan teks setelah dipulihkan. Pemindai dan perangkat lunak yang menggunakan induksi tata bahasa dapat mengekstraksi makna dari teks yang disimpan bersama dengan file gambar dengan menerapkan apa yang dikenal sebagai analisis semantik laten (LSA).
Bentuk lain dari metode algoritma pemetaan untuk kompresi data lossless adalah penggunaan kode universal. Lebih fleksibel untuk digunakan daripada pengkodean Huffman, tidak memerlukan pengetahuan tentang nilai integer maksimum sebelumnya. Pengkodean Huffman dan pengkodean Aritmatika memang menghasilkan tingkat kompresi data yang lebih baik. Upaya juga sedang dilakukan untuk menghasilkan metode kompresi data universal yang akan menciptakan algoritme yang bekerja dengan baik untuk berbagai sumber.