Analisis Uji Regresi Linear Berganda dan Kontribusinya dalam Penelitian

essays-star 4 (312 suara)

Uji regresi linear berganda adalah metode statistik yang digunakan untuk mempelajari hubungan antara dua atau lebih variabel. Persamaan umum untuk uji regresi linear berganda adalah \( \mathrm{Y}=\mathrm{a}+\mathrm{b}_{1} \mathrm{X}_{1}+\mathrm{b}_{2} \mathrm{X}_{2} \), di mana \( \mathrm{Y} \) adalah variabel terikat, \( \mathrm{X}_{1} \) dan \( \mathrm{X}_{2} \) adalah variabel bebas, dan \( \mathrm{a} \), \( \mathrm{b}_{1} \), dan \( \mathrm{b}_{2} \) adalah koefisien regresi.

a. Hasil Uji Regresi secara Parsial:

Dalam uji regresi secara parsial, kita menganalisis pengaruh variabel bebas secara individu terhadap variabel terikat. Dalam tabel hasil uji regresi, kita dapat melihat kolom "Coefficients" yang memberikan informasi tentang koefisien regresi untuk setiap variabel bebas. Koefisien regresi ini menunjukkan seberapa besar perubahan dalam variabel terikat yang diharapkan ketika variabel bebas berubah satu satuan, dengan mengontrol variabel bebas lainnya. Selain itu, kolom "Sig." memberikan informasi tentang signifikansi statistik dari koefisien regresi. Jika nilai "Sig." kurang dari tingkat signifikansi yang ditentukan (misalnya \( \alpha = 0,05 \)), maka kita dapat menyimpulkan bahwa variabel bebas memiliki pengaruh signifikan terhadap variabel terikat secara parsial.

b. Hasil Uji Regresi Secara Serempak (Secara Bersama-Sama):

Dalam uji regresi secara serempak, kita menganalisis pengaruh variabel bebas secara bersama-sama terhadap variabel terikat. Dalam tabel hasil uji regresi, kita dapat melihat bagian "Model" yang memberikan informasi tentang koefisien regresi untuk setiap variabel bebas. Koefisien regresi ini menunjukkan seberapa besar perubahan dalam variabel terikat yang diharapkan ketika semua variabel bebas berubah satu satuan, dengan mengontrol variabel bebas lainnya. Selain itu, kolom "Sig." memberikan informasi tentang signifikansi statistik dari koefisien regresi secara bersama-sama. Jika nilai "Sig." kurang dari tingkat signifikansi yang ditentukan (misalnya \( \alpha = 0,05 \)), maka kita dapat menyimpulkan bahwa variabel bebas memiliki pengaruh signifikan terhadap variabel terikat secara bersama-sama.

2. Kontribusi (RSquare) dalam Hasil Regresi:

Nilai RSquare pada hasil regresi menggambarkan seberapa besar variabilitas variabel terikat yang dapat dijelaskan oleh variabel bebas dalam model regresi. Nilai RSquare berkisar antara 0 hingga 1, di mana semakin tinggi nilai RSquare, semakin besar kontribusi variabel bebas dalam menjelaskan variasi variabel terikat. Dalam contoh tabel Model Summary, nilai RSquare sebesar 0,635 menunjukkan bahwa 63,5% variasi variabel terikat dapat dijelaskan oleh variabel bebas dalam model regresi.

3. Hubungan Searah (Berbanding Terbalik) antara Variabel Bebas dan Variabel Terikat:

Jika diketahui bahwa \( a \) (Constant) = 15,666 dan \( b \) (Koefisien) = -0,326, maka dapat disimpulkan bahwa terdapat hubungan searah (berbanding terbalik) antara variabel bebas (\( X \)) dengan variabel terikat (\( Y \)). Artinya, ketika nilai variabel bebas meningkat satu satuan, nilai variabel terikat cenderung menurun sebesar 0,326 satuan, dengan mengontrol variabel bebas lainnya.