Konsep Dasar Analisis Regresi
KONSEP
DASAR ANALISIS REGRESI
Pengertian
Analisis Regregi
Analisis regresi adalah kajian terhadap hubungan satu variable
yang disebut dengan variable yang diterangkan (the explained variable) dengan
satu atau dua variable yang menerangkan (the explanatory). Variabel pertama
disebut juga sebagai variable tergantung dan variable kedua disebut juga
sebagai variable bebas. Analisis regresi merupakan salah satu analisis
yang bertujuan untuk mengetahui pengaruh suatu variabel terhadap variabel lain.
Sir Francis Galton (1822 – 1911), memperkenalkan model peramalan, penaksiran,
atau pendugaan, yang selanjutnya dinamakan regresi, sehubungan dengan
penelitiannya terhadap tinggi badan manusia. Penelitian tersebut membandingkan
antara tinggi anak laki-laki dan tinggi badan ayahnya. Galton menunjukkan bahwa
tinggi badan anak laki-laki dari ayah yang tinggi setelah beberapa generasi
cenderung mundur (regressed) mendekati nilai tengah populasi. Dengan kata lain,
anak laki-laki dari ayah yang badannya sangat tinggi cenderung lebih pendek
dari pada ayahnya, sedangkan anak laki-laki dari ayah yang badannya sangat
pendek cenderung lebih tinggi dari ayahnya. (Ronal E. Walpole).
Hubungan
antar variabel dapat berupa hubungan linier ataupun hubungan tidak linier.
Misalnya, berat badan orang dewasa sampai pada tahap tertentu bergantung pada
tinggi badan, keliling lingkaran bergantung pada diameternya, dan tekanan gas
bergantung pada suhu dan volumenya. Atau dalam ilmu pemasaran, nilai penjualan
akan bergantung pada biaya promosi. Hubungan-hubungan itu bila dinyatakan dalam
bentuk matematis akan memberikan persamaan-persamaan tertentu. Untuk dua variabel,
hubungan liniernya dapat dinyatakan dalam bentuk persamaan linier, yakni: Y = a
+ bX. Hubungan antara dua variabel pada persamaan linier jika digambarkan
secara (scatter diagram), semua nilai Y dan X akan berada pada suatu garis
lurus. Dan dalam ilmu ekonomi, garis itu dinamakan garis regresi.
Berkaitan
dengan analisis regresi ini, setidaknya ada empat kegiatan yang lazim
dilaksanakan yakni :
1. Mengadakan estimasi terhadap parameter berdasarkan
data empiris.
2. Menguji berapa besar variasi variabel dependen dapat
diterangkan oleh variasi independen.
3. Menguji apakah estimasi parameter tersebut signifikan
atau tidak.
4. Melihat apakah tanda magnitude dari estimasi parameter
cocok dengan teori.
Tujuan dan Kegunaan Analisis Regresi
Analisis
regresi dalam statistika adalah salah satu metode untuk menentukan hubungan
sebab akibat antara satu variabel dengan variabel yang lain. Analisis regresi
adalah salah satu analisis yang paling populer dan luas pemakaiannya. Hampir
semua bidang ilmu yang memerlukan analisis. Analisis regresi dan analisis
korelasi dikembangkan untuk mengkaji dan mengukur hubungan antara dua variabel
atau lebih. Dalam analisis regresi dikembangkan persamaan estimasi untuk
mendeskripsikan pola atau fungsi hubungan antara variabel-variabel. Sesuai
dengan namanya, persamaan estimasi atau persamaan regresi itu digunakan untuk
mengestimasi nilai dari suatu variabel berdasarkan nilai variabel lainnya.
Variabel yang di estimasi itu disebut variabel dependen (atau variabel terikat)
sedangkan variabel yang diperkirakan memengaruhi variabel dependen itu disebut
variabel independen (atau variabel bebas).
Ada
beberapa tujuan penggunaan analisis regresi, antara lain:
a. Membuat estimasi rata-rata dan nilai
variabel tergantung dengan didasari pada nilai variabel bebas.
b. Menguji hipotesis karakteristik dependensi.
c. Untuk meramalkan nilai rata-rata
variabel bebas dengan didasarkan pada nilai variabel bebas diluar jangkauan
sample.
Contohnya :

Persyaratan Penggunaan Regresi
Model
kelayakan regresi linear didasarkan pada hal-hal sebagai berikut:
1. Model regresi
dikatakan layak jika angka signifikansi pada ANOVA sebesar <
0.05.
2. Predictor yang
digunakan sebagai variabel bebas harus layak. Kelayakan ini diketahui jika
angka Standard Error of Estimate < Standard Deviation.
3. Koefesien
regresi harus signifikan. Pengujian dilakukan dengan Uji T. Koefesien regresi
signifikan jika T hitung > T tabel (nilai kritis).
4. Tidak boleh
terjadi multikolinieritas, artinya tidak boleh terjadi korelasi yang sangat
tinggi atau sangat rendah antar variabel bebas. Syarat ini hanya berlaku untuk
regresi linier berganda dengan variabel bebas lebih dari satu.
5. Tidak
terjadi otokorelasi. Terjadi otokorelasi jika angka Durbin dan Watson (DB)
sebesar < 1 dan > 3.
6. Keselerasan
model regresi dapat diterangkan dengan menggunakan nilai r2 semakin
besar nilai tersebut maka model semakin baik. Jika nilai mendekati 1 maka model
regresi semakin baik. Nilai r2 mempunyai karakteristik
diantaranya: 1) selalu positif, 2) Nilai r2 maksimal sebesar 1.
Jika Nilai r2 sebesar 1 akan mempunyai arti kesesuaian yang
sempurna. Maksudnya seluruh variasi dalam variabel Y dapat diterangkan oleh
model regresi. Sebaliknya jika r2 sama dengan 0, maka tidak ada
hubungan linier antara X dan Y.
7. Terdapat
hubungan linier antara variabel bebas (X) dan variabel tergantung (Y)
8. Data
harus berdistribusi normal
9. Data
berskala interval atau rasio
10. Kedua variabel bersifat
dependen, artinya satu variabel merupakan variabel bebas (disebut juga sebagai
variabel predictor) sedang variabel lainnya variabel tergantung (disebut juga
sebagai variabel response).


Selain itu, materi ini juga dilenggkapi denga rumusan
matematis yang dijelaskan sebaai berikut :
![]() |
Contoh Olah Regresi dengan
MiniTab :

Regresi Linear dengan Variabel Moderating
Variabel moderating
adalah variabel yang memperkuat atau memperlemah hubungan antara satu variabel
dengan variabel lain. Sebagai contoh: seorang suami menyayangi istrinya. Dengan
hadirnya seorang anak, maka rasa sayang tersebut bertambah. Berarti variabel anak
merupakan moderating antara rasa saya suami terhadap istri. Contoh lain:
kompensasi memperkuat pengaruh antara kepuasan kerja terhadap kinerja. Artinya
kepuasan kerja berpengaruh terhadap kinerja, dan adanya kompensasi yang tinggi
maka pengaruh antara kepuasan kerja terhadap kinerja menjadi lebih meningkat.
Dalam hal ini, kompensasi bisa saja berpengaruh terhadap kinerja bisa saja
tidak. Metode analisis regresi linear dengan variabel moderating antara
lain:
1. Multiple
Regression Analysis (MRA)
Metode ini dilakukan
dengan menambahkan variabel perkalian antara variabel bebas dengan variabel
moderatingnya, sehingga persamaan umumnya adalah sebagai berikut: Y = a + b1 X1
+ b2 X2 + b3 X1 X2 dengan Y adalah kinerja, X1 adalah kepuasan kerja, X2
kompensasi dan X1 X2 adalah perkalian antara kepuasan kerja dengan kompensasi.
Hipotesis moderating diterima jika variabel X1 X2 mempunyai pengaruh signifikan
terhadap Y, tidak tergantung apakah X1 dan X2 mempunyai pengaruh terhadap Y
atau tidak. Model ini biasanya menyalahi asumsi multikolinearitas atau adanya
korelasi yang tinggi antara variabel bebas dalam model regresi, sehingga
menyalahi asumsi klasik. Hampir tidak ada model MRA yang terbebas dari masalah
multikolinearitas, sehingga sebenarnya model ini tidak disarankan untuk
dipergunakan.

2. Absolut residual
Model ini mirip
dengan MRA, tetapi variabel moderating didekati dengan selisih mutlak (absolut
residual) antara variabel bebas dengan variabel moderatingnya. Penerimaan
hipotesis juga sama, dan model ini masih riskan terhadap gangguan
multikolinearitas meskipun risiko itu lebih kecil dari pada dengan metode MRA.
3. Residual
Model ini menggunakan
konsep lack of fit yaitu hipotesis moderating diterima terjadi jika terdapat
ketidakcocokan dari deviasi hubungan linear antara variabel independen.
Langkahnya adalah dengan meregresikan antara kepuasan kerja terhadap kompensasi
dan dihitung nilai residualnya. Pada program SPSS dengan klik Save pada
regreesion, lalu klik pada usntandardized residual. Nilai residual kemudian
diambil nilai absolutnya lalu diregresikan antara kinerja terhadap absolut
residual.
Uji Hipotesis
Pengujian
hipotesis dapat didasarkan dengan menggunakan dua hal, yaitu; tingkat
signifikan atau probabilitas dan tingkat kepercayaan atau confidence interval.
Didasarkan tingkat signifikansi pada umumnya orang menggunakan 0,05. Kisaran
tingkat signifikan mulai dari 0,01 sampai dengan 0,1. Yang dimaksud dengan
tingkat signifikan adalah probabilitas melakukan kesalahan tipe 1, yaitu
kesalahan menolak hipotesis ketika hipotesis tersebut benar. Tingkat
kepercayaan pada umumnya ialah sebesar 95%, yang dimaksud dengan tingkat
kepercayaan ialah tingkat dimana sebesar 95% nilai semple akan mewakili nilai
populasi dimana sample berasal. Dalam melakukan uji hipotesis terdapat dua
hipotesis, yaitu:
HO
(hipotesis nol) dan H1 (hipotesis alternative)
Contoh
uji hipotesis misalnya rata-rata produktivitas pegawai sama dengan 10 (∑x
= 10), maka bunyi hipotesisnya ialah:
a. HO:
rata-rata prokdutivitas pegawai sama dengan 10
b. H1
: rata-rata prokdutivitas pegawai tidak sama dengan 10
Beberapa
hal yang harus diperhatikan dalam uji hipotesis ialah:
a. Untuk pengujian hipotesis kita
menggunakan data sample.
b. Dalam pengujian akan
menghasilkan dua kemungkinan, yaitu pengujian signifikan secara statistic jika
kita menlak HO dan pengujian tidak signifikan secara statistic jika kita
menerima H0.
c. Jika kita menggunakan nilai t,
maka jika nilai t yang semakin besar atau menajuhi 0, kita akan cenderung
menolak H0, sebaliknya jika nilai t semakin kecil atau mendekati 0 kita akan
cenderung menerima H0.

Komentar
Posting Komentar