Load balancing adalah proses dimana lalu lintas protokol Internet (IP) masuk dapat didistribusikan di beberapa server. Ini meningkatkan kinerja server, mengarah pada penggunaan optimalnya, dan memastikan tidak ada satu server pun yang kewalahan. Praktik ini sangat penting untuk jaringan yang sibuk, di mana sulit untuk memprediksi jumlah permintaan yang akan dikeluarkan ke server.
Biasanya, dua atau lebih layanan web digunakan dalam skema penyeimbangan beban. Jika salah satu server mulai kelebihan beban, permintaan diteruskan ke server lain. Proses ini menurunkan waktu layanan dengan mengizinkan beberapa server menangani permintaan. Waktu layanan dikurangi dengan menggunakan penyeimbang beban untuk mengidentifikasi server mana yang memiliki ketersediaan yang sesuai untuk menerima lalu lintas.
Prosesnya, sangat umum, sangat mudah. Permintaan halaman web dikirim ke penyeimbang beban, yang meneruskan permintaan ke salah satu server. Server itu merespons kembali ke penyeimbang, yang pada gilirannya mengirimkan permintaan ke pengguna akhir.
Load balancing memungkinkan layanan untuk melanjutkan bahkan dalam menghadapi server down time karena kegagalan server atau pemeliharaan server. Jika sebuah perusahaan menggunakan beberapa server dan salah satunya gagal, situs web atau layanan lainnya akan tetap tersedia bagi penggunanya, karena lalu lintas akan dialihkan ke server lain di kumpulan server. Di Global Server Load Balancing (GSLB) beban didistribusikan ke server farm yang tersebar secara geografis, tergantung pada beban, kesehatan, atau kedekatannya.
Ada beberapa metode di mana beban dapat diseimbangkan. Jika server serupa dalam spesifikasi perangkat keras, metode Perceptive (yang memprediksi server berdasarkan data historis dan terkini) dan Fastest Response Time dapat menjadi yang terbaik untuk digunakan. Di sisi lain, jika spesifikasi perangkat kerasnya berbeda, metode Weighted Round Robin, yang menetapkan permintaan ke server secara bergantian sesuai bobotnya, mungkin merupakan solusi yang lebih baik karena dapat menetapkan lebih banyak permintaan ke server yang dapat menangani volume yang lebih besar.