All About Statistic

Skala Pengukuran Statistik

Ada 4 macam skala pengukuran yaitu: skala nominal, skala ordinal, skala interval dan skala rasio.

1. Skala nominal

Adalah skala yang semata-mata hanya untuk memberikan indeks, atau nama saja dan tidak mempunyai makna yang lain. Contoh:

Data Kode (a) Kode (b)
Yuni 1 4
Desi 2 2
Ika 3 3
Astuti 4 1

Keterangan: Kode 1 sampai dengan 4 (a) semata-mata hanyalah untuk memberi tanda saja, dan tidak dapat dipergunakan sebagai perbandingan antara satu data dengan data yang lain. Kode tersebut dapat saling ditukarkan sesuai dengan keinginan peneliti (menjadi alternatif b) tanpa mempengaruhi apa pun.

2. Skala ordinal

Adalah skala ranking, di mana kode yang diberikan memberikan urutan tertentu pada data, tetapi tidak menunjukkan selisih yang sama dan tidak ada nol mutlak. Contoh:

Data Skala Kecantikan (a) Skala Kecantikan (b)
Yuni 4 10
Desi 3 6
Ika 2 5
Astuti 1 1

Skala kecantikan (a) di atas menunjukkan bahwa Yuni paling cantik (dengan skor tertinggi 4), dan Astuti yang paling tidak cantik dengan skor terendah (1). Akan tetapi, tidak dapat dikatakan bahwa Yuni adalah 4 kali lebih cantik dari pada Astuti. Skor yang lebih tinggi hanya menunjukkan skala pengukuran yang lebih tinggi, tetapi tidak dapat menunjukkan kelipatan. Selain itu, selisih kecantikan antara Yuni dan Desi tidak sama dengan selisih kecantikan antara Desi dan Ika meskipun keduanya mempunyai selisih yang sama (1). Skala kecantikan pada (a) dapat diganti dengan skala kecantikan (b) tanpa mempengaruhi hasil penelitian.

Skala nominal dan skala ordinal biasanya mempergunakan analisis statistik non parametrik, contoh: Korelasi Kendall, Korelasi Rank Spearman, Chi Square dan lain-lain.

3. Skala interval

Skala pengukuran yang mempunyai selisih sama antara satu pengukuran dengan pengukuran yang lain, tetapi tidak memiliki nilai nol mutlak. Contoh:

Data Nilai Mata Kuliah (a) Skor Nilai Mata Kuliah (b)
Yuni A 4
Desi B 3
Ika C 2
Astuti D 1

Tabel di atas menunjukkan bahwa nilai A setara dengan 4, B setara dengan 3, C setara dengan 2 dan D setara dengan 1. Selisih antara nilai A dan B adalah sama dengan selisih antara B dan C dan juga sama persis dengan selisih antara nilai C dan D. Akan tetapi, tidak boleh dikatakan bahwa Yuni adalah empat kali lebih pintar dibandingkan Astuti, atau Ika dua kali lebih pintas dari pada Astuti. Meskipun selisihnya sama, tetapi tidak mempunyai nilai nol mutlak.

4. Skala rasio

Adalah skala pengukuran yang paling tinggi di mana selisih tiap pengukuran adalah sama dan mempunyai nilai nol mutlak. Contoh:

Data Tinggi Badan Berat badan
Yuni 170 60
Desi 160 50
Ika 150 40
Astuti 140 30

Tabel di atas adalah menggunakan skala rasio, artinya setiap satuan pengukuran mempunyai satuan yang sama dan mampu mencerminkan kelipatan antara satu pengukuran dengan pengukuran yang lain. Sebagai contoh; Yuni mempunyai berat badan dua kali lipat berat Astuti, atau, Desi mempunyai tinggi 14,29% lebih tinggi dari pada Astuti.

Skala pengukuran interval dan rasio biasanya dikenai alat statistik parametrik

Diposkan oleh Konsultan Statistik di 18:36 26 komentar Link ke posting ini

Label:

Penanggulangan Masalah Autokorelasi

Salah satu alternatif untuk mengatasi model regresi linear yang terkena gangguan autokorelasi adalah dengan memasukkan lag dari variabel terikat menjadi salah satu variabel bebasnya. Saya yakin pasti anda spontan akan bertanya, ‘lag’ itu apaan ya?? Makanan jenis apa itu?? J. Dari pada saya menjelaskan definisinya, maka akan saya berikan contoh, dan anda definisikan sendiri ya. Misalnya ada urutan data seperti ini:

Eh…ini hanya contoh ya, disarankan untuk tidak menggunakan regresi linear dengan 16 data saja. He he. Mau buat banyak-banyak capek…… nah kalau mau liat datanya, tinggal download saja.

Nah, klik menu Analyze, sorot pada Regression, klik pada linear seperti ini:

Jika anda benar, maka akan diarahkan ke box regresi linear seperti ini:

Masukkan variabel Y ke kotak dependen, dan variabel X ke kotak Independen seperti gambar di atas. Untuk memunculkan menu autokorelasi dengan Durbin-Watson, klik menu Statistic di bagian bawah agak ke kiri. Dah ketemu??? Ya benar, di situ, di sebelah kiri menu Plots. Jika anda klik di menu Statistic, maka akan diarahkan ke box menu sebagai berikut:

Berikan tanda centang (tick mark) pada Durbin-Watson seperti pada contoh. Lalu tekan Continue di kanan atas, sehingga akan dikembalikan ke menu regresi, lalu tekan OK dan program akan mengeluarkan Outputnya seperti ini:

Jika anda benar, maka akan didapat nilai Durbin-Watson sebesar 0,287. Perhatikan tabel DW untuk satu buah variabel (k’) sebesar 1 dan jumlah data 16, maka nilai dL adalah 1,10 dan dU adalah 1,34. Tampak bahwa 0 <>

Maka anda akan diarahkan ke Box Compute. Lalu ketikkan Lag_Y pada target variabel. Artinya variabel lag nanti akan disimpan pada kolom dengan nama Lag_Y. lalu pada Function, di bagian kanan, cari menu LAG(Variable). Sorotkan mouse lalu tekan tanda panah ke atas di samping Function. Sehingga Numeric Expression akan keluar Lag(?). Nah, tanda tanya itu anda ganti dengan Y, artinya variabel Y. Yup? Seperti ini lho:

Lalu klik aja OK di bagian bawah. Sehingga tabulasi data pada SPSS akan menjadi seperti ini:

Anda dapat melihat, bahwa lag variabel adalah menggeser ke bawah suatu variabel. Atau data nomor 1 menjadi data nomor 2 pada lag, data nomor 2 menjadi data nomor 3 pada lag dan seterusnya. Dan, ya anda benar, maka data nomor 1 pada lag akan kosong, sehingga data total akan berkurang satu.

Setelah itu, lakukan penghitungan regresi lagi seperti di atas, dengan menambahkan variabel Lag y sebagai variabel bebas. Maka jika anda benar (mudah-mudahan benar) dan akan keluar output sebagai berikut:

Tampak pada gambar di atas bahwa nilai DW adalah sebesar 1,557. Dengan dua buah variabel bebas (ingat ada tambahan satu, yaitu lag variabel) dan jumlah data adalah 15 (ingat sudah berkurang satu), maka nilai dL adalah sebesar 0,95 dan dU adalah sebesar 1,54. Maka akan tampak bahwa dU <>

Kira-kira sudah jelas? Kalau sudah ya syukur, kalau belum coba ulangi baca sekali lagi. Kalau anda sudah paham benar, masih ada satu masalah lagi, yaitu adalah bagaimana cara anda meyakinkan dosen anda dengan metode ini. Saya dapat menduga bahwa dosen anda pasti akan keberatan dengan model ini, karena, biasanya dosen bukan berasal dari basik statistik dan agak risih jika harus menyetujui model yang masih asing bagi dirinya. Tapi berusahalah untuk meyakinkan metode ini, yang sebenarnya masih kurang terlalu dikenal.

Pada tahap interpretasi model, lag variabel tidak usah diinterpretasikan karena hanya merupakan metode untuk menghilangkan gangguan autokorelasi saja. Juga masih ada metode lain, misalnya dengan persamaan beda umum (first difference delta) yang akan dibahas lebih lanjut.

Bahan bacaan:

Muhammad Firdaus, 2004. Ekonometrika suatu Pendekatan Aplikatif. Jakarta: Bumi Aksara

Durbin, J., dan Watson, G.S., 1951. Testing for Serial Correlation in Least Square Regression. Biometrika, Vol. 38. Hlm. 159 – 177

Diposkan oleh Konsultan Statistik di 16:25 25 komentar Link ke posting ini

Label:

Jumat, 20 Maret 2009

Pengantar Regresi Ordinal

Ordinal regression (regresi ordinal) adalah analisis regresi di mana variabel terikatnya menggunakan skala ordinal. Apakah itu skala ordinal? Jawabannya lihat di postingan Skala Pengukuran Statistik). Sedangkan variabel bebasnya bisa merupakan Covariate (jika menggunakan skala interval atau rasio) atau bisa merupakan Factor (jika menggunakan skala nominal atau ordinal).

Penting untuk dimengerti bahwa jika kita mempunyai variabel terikat dalam data ordinal, maka penggunaan regresi linear berganda memberikan hasil yang tidak baik, atau bahasa resmi pada buku panduan SPSS mengatakan “don’t work very well”. Alternatif metode yang digunakan sering juga disebut dengan Generalized linear models yang memprediksikan cummulative probabilities dari kategori yang ada. Misalnya begini, ada kategori perokok, katakanlah perokok ‘berat’, ‘sedang’, ‘ringan’ dan ‘tidak merokok’ (untuk sementara variabel bebasnya tidak dibahas dulu). Jadi kemungkinan kategori sopir, misalnya

Sebagai perokok berat, kemungkinannya 0,4

Sebagai perokok sedang, kemungkinannya 0,3

Sebagai perokok ringan, kemungkinannya 0,2

Sebagai tidak merokok, kemungkinannya 0,1

Maka cummulative probability dapat dihitung sebagai berikut:

Perokok berat, cummulative probabilitinya 0,4

Perokok berat atau sedang, cummulative probabilitinya 0,4 + 0,3 = 0,7

Perokok berat atau sedang atau ringan, cummulative probabilitinya 0,4 + 0,3 + 0,2 = 0,9

Perokok berat atau sedang atau ringan, cummulative probabilitinya 0,4 + 0,3 + 0,2 + 0,1 = 1

Bisa dipahami? Jadi dalam hal ini perhitungan yang terakhir akan memberikan nilai 1 (atau 100%).

Dari simulasi tersebut mudah-mudahan bisa dipahami. Sehingga dengan kata-kata sederhana, regresi ordinal dapat memberikan jawaban, seberapa besar kemungkinan seorang sopir itu menjadi seorang perokok berat? Jawabannya yaitu sebesar 0,4. Lebih lanjut, seberapa besar kemungkinan seorang sopir menjadi seorang perokok berat atau perokok sedang? Jawabannya 0,7. Seberapa besar kemungkinan seorang sopir menjadi perokok berat atau perokok sedang atau perokok ringan (dengan kata lain merokok), jawabannya 0,9. Nah yang terakhir kan tidak perlu dipertanyakan. Karena pertanyaannya akan menjadi seberapa besar kemungkinan seorang sopir merokok atau tidak merokok? Jawabannya ya pastilah 1.

Sudah mendapatkan pecerahan??? Dalam implikasinya, regresi ordinal hanya akan memberikan persamaan untuk memprediksi seberapa besar kemungkinan sopir merokok berat, merokok berat atau sedang, dan merokok berat atau sedang atau ringan. Itu saja. Tidak ada persamaan yang memprediksikan seberapa besar kemungkinan sopir itu menjadi seorang perokok berat, atau sedang atau ringan atau tidak merokok. Karena yang jelas lah jawabannya mesti 1.

Contohnya begini, misalnya ada judul penelitian seperti ini: Pengaruh Quick ratio (QR), Return on Assets (ROA) dan Debt to Equity Ratio (ER) terhadap opini audit.

Dalam hal ini variabel bebasnya merupakan covariate, dan opini audit dilambangkan dengan 4 (wajar tanpa pengecualian), 3 (wajar dengan catatan), 2 (wajar dengan catatan) dan 1 (tidak wajar). O ya ini hanya contoh saja ya. Setelah dilakukan perhitungan regresi ordinal, maka akan memberikan 3 persamaan yaitu persamaan yang mencerminkan pengaruh QR, ROA dan DER terhadap kemungkinan perusahaan mendapatkan opini auditor 4, persamaan kedua adalah persamaan yang mencerminkan pengaruh QR, ROA dan DER terhadap kemungkinan perusahaan mendapatkan opini auditor 4 atau 3 dan persamaan ketiga adalah terhadap kemungkinan perusahaan mendapatkan opini audit 4 atau 3 atau 2. Nah jika anda ingin melihat seberapa besar kemungkinan perusahaan mendapatkan opini 3 saja, ya anda tinggal mengurangkan seberapa besar kemungkinan perusahaan mendapatkan opini 4 dan 3 dengan seberapa besar kemungkinan perusahaan mendapatkan opini 4. Yup???

O ya, terdapat lima pilihan regresi ordinal atau sering disebut option link. Kelima pilihan tersebut adalah Logit, Complementari log-log, Negative log-log, Probit dan Cauchit. Pilihannya tergantung dari distribusi data yang dianalisis. Panduannya kurang lebih sebagai berikut:

Logit dengan persamaan: f(x) = log(x/(1-x))

Digunakan pada kebanyakan distribusi data, jadi Program SPSS secara default menggunakan option link berupa Logit

ComplementaryLog-log dengan persamaan f(x) = log(-log(1-x))

Digunakan untuk data yang mempunyai kecenderungan bernilai tinggi.

Negative Log-log dengan persamaan f(x) = -log(-log(x))

Digunakan untuk data yang mempunyai kecenderungan bernilai rendah

Probit dengan persamaan f(x) = O-1 (x) dengan O-1 adalah fungsi inverse distribusi kumulatif standar normal

Digunakan jika variabel latent terdistribusi secara normal

Cauchit (Inverse Cauchy) dengan persamaan f(x) = tan(Phi(x-0,5))

Digunakan jika variabel latent mempunyai nilai yang ekstrem

Kelima option di atas harus ditentukan dengan menelaah distribusi data. Mungkin anda agak kerepotan ya?? Regresi ordinal kan jarang dipakai, membingungkan, udah gitu disuruh menelaah distribusinya lagi??? He he….

Nah kalau memang anda agak bingung, anda coba saja semuanya! Terus yang memberikan model paling baik anda gunakan gitu aja…… ha ha ha……ini memang tidak ilmiah, tapi sering digunakan oleh banyak mahasiswa (jangan-jangan dosen juga ya??). yaaaa…. dari pada bingung menentukan option link yang mana……..

Bagi yang berminat dengan regresi ordinal, tolong ini ditelaah dulu sebelum masuk kepada cara menggunakan regresi ordinal dengan Program SPSS. Kalau masih ada yang kurang jelas silahkan berkomentar dan subscribe aja, jadi jawabannya akan otomatis masuk ke email anda. Thanx……

Bagi yang berminat membaca artikel lebih lanjut silahkan download di sini

Simulasi Regresi Ordinal

Contoh data Regresi Ordinal

Diposkan oleh Konsultan Statistik di 16:40 2 komentar Link ke posting ini

Label:

Structral Equation Modeling (SEM) Berbasis Variance

SEM memiliki fleksibilitas yang lebih tinggi bagi peneliti mengkonfirmasikan teori dengan data, dibandingkan teknik multivariate yang berkembang sebelumnya yaitu principal component analysis, factor analysis, discriminant analysis atau multiple regression. Terdapat dua kelompok SEM akhir-akhir ini yaitu, berbasis covariance dan berbasis variance (component)

SEM berdasarkan pada Covariance

SEM berbasis covariance yang berkembang sekitar tahun 1973 mulai menarik perhatian para peneliti setelah keluarnya LISREL III yang dikembangkan oleh Joreskog dan Sorbom. Ide dasarnya adalah dengan menggunakan fungsi Maximum Likelihood (ML) sehingga covariance based SEM (CBSEM) sebenarnya berusaha meminimumkan perbedaan antara sample covariance dan covariance yang diprediksi oleh model teoritis. Penggunaan CBSEM sangat dipengaruhi oleh asumsi parametrik yang harus dipenuhi seperti variabel yang diobservasi memiliki multivariate normal distribution dan observasi harus independen satu sama lain.

CBSEM sangat dipengaruhi oleh jumlah sampel, karena jumlah sample kecil dapat menghasilkan model yang jelek masih dapat menghasilkan model fit. CBSEM mengharuskan dalam membentuk variabel latent, indikator-indikatornya bersifat refleksif. Dalam model refleksif indikator atau manifest dipandang variabel yang dipengaruhi oleh variabel laten sesuai dengan teori pengukuran classical test theory. Pada model indikator refleksif, indikator-indikator pada satu konstruk (variabel laten) dipengaruhi oleh konsep yang sama. Perubahan dalam satu item atau indikator akan berakibat pada perubahan indikator lainnya dengan arah yang sama.

Pada kenyataannya indikator dapat dibentuk dalam bentuk formatif indikator model yaitu indikator dipandang sebagai variabel yang mempengaruhi variabel laten. Sebagai ilustrasi indikator pendidikan, pekerjaan dan pendapatan mempengaruhi variabel laten status sosial ekonomi. Jika salah satu indikator meningkat maka indikator yang lain tidak harus ikut meningkat pula. Kenaikan pada suatu indikator pendapatan akan meningkatkan variabel laten.

Penggunaan model indikator formatif dalam CBSEM akan menghasilkan model yang unidentified yang berarti terdapat covariance bernilai nol di antara beberapa indikator. Hubungan kausalitas model struktural dibangun atas dasar teori dan CBSEM hanya ingin mengkonfirmasi apakah model berdasarkan teori tadi tidak berbeda dengan model empirisnya.

Dengan beberapa keterbatasan yang ada maka sekarang banyak yang menggunakan SEM berbasis component atau variance yang terkenal dengan Partial Least Square (PLS).

SEM berbasis component atau variance – PLS

Pada dasarnya, tujuan PLS adalah prediksi. Variabel laten didefinisikan sebagai jumlah dari indikatornya. Hasil komponen skore untuk setiap variabel laten didasarkan pada estimated indicator weight yang memaksimumkan variance explained untuk variabel dependent (laten, observe atau keduanya). PLS merupakan metode analisis yang powerfull oleh karena tidak didasarkan banyak asumsi. Data tidak harus berdistribusi normal multivariate (indikator dengan skala kategor sampai ratio dapat digunakan pada model yang sama), sample tidak harus besar dan residual distribution. Walaupun PLS dapat juga digunakan untuk mengkonfirmasi teori, tetapi dapat juga digunakan untuk menjelaskan ada atau tidaknya hubungan antar variabel laten. Oleh karena lebih menitik beratkan pada data dan dengan prosedur estimasi yang terbatas, maka mispesifikasi model tidak begitu berpengaruh terhadap estimasi parameter.

PLS dapat menganalisis sekaligus konstruk yang dibentuk dengan indikator refleksif dan indikator formatif dan hal ini tidak mungkin dijalankan dalam CBSEM karena akan terjadi unidentified model. Oleh karena PLS menggunakan analisis series ordinary least square, maka identifikasi model bukan masalah dalam model rekursive dan juga tidak mengasumsikan bentuk distribusi tertentu dari pengukuran variabel.

Beberapa program yang dirancang khusus untuk menyelesaikan model dengan PLS adalah SmartPLS, PLS Graph, Visual PLS dan PLS Gui. Semua program tersebut dapat di download secara gratis dari internet. Berikut adalah alamat-alamat penyedia software tersebut: (anda juga bisa tanya sama Mbah Google)


http://dmsweb.badm.sc.edu untuk program PLS Gui

http://kuas.edu.tw untuk program VPLS

http://smartpls.de untuk program SmartPLS

http://bauer.uh.edu untuk program PLS Graph

Program-program tersebut sampai sekarang masih merupakan versi Beta (kecuali PLS Graph) sehingga masih bisa di download secara gratis. Tapi gak tahu lho besok-besok. So, bagi yang butuh buruan aja…..

Quick Count dan Signifikansi

Output statistik adalah sederetan angka yang tidak mempunyai makna apapun terhadap realitas, sebelum ada adjustment dari kita, manusia pengguna statistik

Quick Count sebenarnya sudah lama dikenal oleh publik, tetapi baru akhir-akhir ini menjadi bahan pembicaraan masyarakat Indonesia, terkait dengan maraknya pemilihan kepala daerah dan juga pemilihan presiden dan wakil presiden. Berdasarkan katanya, ‘quick count’ dapat diartikan sebagai penghitungan cepat, di mana dilakukan penghitungan hasil pemilihan umum secara cepat, lebih cepat dari pada penghitungan yang resmi dilakukan oleh Komite Pemilihan Umum (KPU). Keabsahan quick count telah diakui secara luas di dunia, dan sampai saat ini merupakan metode yang paling canggih dalam menentukan siapa pemenang dari suatu pemilu, tanpa harus menghitung semua suara yang masuk.

Pelaksana quick count biasanya adalah lembaga independen yang mempunyai kapasitas yang tinggi dalam dunia statistik. Hasil quick count di Indonesia yang dilakukan oleh lembaga independen di Indonesia, baik berafiliasi asing maupun tidak, selama ini selalu memberikan hasil yang akurat. Bahkan salah satu komandan lembaga survey tersebut menyatakan bahwa hasil perhitungannya selalu tepat, bahkan mendekati kenyataan hasil akhir. Akan tetapi, seperti disampaikan oleh Witjaksana (Suara Merdeka, 15 November 2008), quick count tetap merupakan teknik atau metode statistik yang memungkinkan adanya bias/kesalahan dari hasil yang ditunjukkan. Dalam dunia statistik, dikenal istilah signifikansi, yang berasal dari kata significance yang kurang lebih diterjemahkan sebagai tingkat kesalahan, atau seberapa besar tingkat kepercayaan yang dihasilkan. Berarti sebenarnya ketepatan hasil perhitungan statistik adalah dalam batas toleransi tersebut.

Pada penelitian ilmiah, tingkat kesalahan atau signifikansi biasanya ditentukan pada rancangan awal penelitian. Sebagai contoh, untuk penelitian tentang perilaku manusia dan responsnya terhadap suatu fenomena, ditentukan taraf signifikansi sebesar 5%. Secara umum, nilai tersebut diartikan bahwa hasil yang ditunjukkan masih mempunyai tingkat kesalahan sebesar 5% atau tingkat kebenaran sebesar 95%. Pengertian lain adalah bahwa jika dilakukan penelitian serupa, maka kemungkinan memberikan hasil yang sama adalah sebesar 95%. Penelitian terhadap objek yang mempunyai perilaku mendekati acak, dapat ditentukan taraf signifikansi yang lebih besar lagi, misalnya sebesar 10% pada penelitian tentang perilaku investor saham. Sebaliknya, pada rancangan penelitian, di mana peneliti bisa melakukan intervensi penuh terhadap fenomena penelitian, dapat ditetapkan taraf signifikansi yang lebih rendah lagi, misalnya 2% untuk penelitian yang dirancang di laboratorium, atau bahkan 1%.

Quick Count

Pelaksanaan quick count sebenarnya merupakan teknik sampling yang banyak dikenal dalam dunia statistik. Teknik sampling yang dipergunakan dalam metode quick count biasanya adalah proportionate sampling atau sampel yang ditentukan secara proporsional berdasarkan populasi yang ada. Sebagai ilustrasi, kita ambil contoh Propinsi Jawa Tengah yang terdiri dari 6 Karesidenan dengan jumlah pemilih yang bervariasi dan tentunya juga dengan jumlah Tempat Pemungutan Suara (TPS) yang berbeda-beda pula. Jika kita tentukan jumlah sampel adalah sebesar 5% dari populasi keseluruhan, maka sampel yang diambil pada masing-masing daerah juga sebesar 5% dari jumlah TPS pada masing-masing karesidenan, tentunya dengan pembulatan jika angkanya merupakan pecahan.

Langkah selanjutnya adalah menentukan jumlah TPS pada masing-masing Kabupaten dengan cara yang sama, dan akhirnya sampai pada Kecamatan pada masing-masing kabupaten. Setelah jumlah TPS yang akan dijadikan sampel ditentukan, langkah selanjutnya adalah menentukan TPS mana yang akan dijadikan sampel. Pertimbangan lokasi TPS yang dijadikan sampel dilakukan berdasarkan karakteristik pemilih, misalnya daerah tersebut merupakan kantong suara dari salah satu kontestan, dan melibatkan para ahli dan pengamat pemilu.

Pada hari pelaksanaan pemilu, lembaga survey quick count menempatkan suka relawan pada masing-masing TPS yang telah ditunjuk. Suka relawan tersebut bertugas memberikan hasil penghitungan suara ke lembaga penyelenggara quick count secepat mungkin. Pengiriman data tersebut bisa melalui Short Message Service (SMS), atau melalui email, atau melalui program lain yang canggih yang telah dimiliki oleh lembaga yang bersangkutan. Data hasil penghitungan suara pada masing-masing lokasi sampel TPS dianggap mewakili keseluruhan suara yang menjadi representasi dari TPS tersebut berdasarkan adjustment dari lembaga survey penyelenggara quick count.

Masih ada beberapa persyaratan statistik sebelum hasil penghitungan suara tersebut dihitung, misalnya asumsi normalitas. Secara sederhana data yang normal adalah data yang mempunyai distribusi di mana nilai rata-rata dekat dengan nilai median (nilai tengah) atau nilai modus (nilai yang paling sering muncul). Data yang normal diasumsikan dapat diberlakukan secara general terhadap populasi secara keseluruhan. Beberapa teknik statistik telah tersedia untuk menangani data yang tidak normal, sehingga memberikan hasil yang dapat dipercaya.

Tingkat Kesalahan

Berdasarkan uraian singkat di atas, maka dapat kita cermati bahwa masih terdapat kemungkinan adanya kesalahan di masing-masing tahapan pada pelaksanaan quick count. Kemungkinan kesalahan karena sukarelawan salah dalam mengirim data, atau kesalahan teknik statistik yang digunakan bisa kita abaikan, karena kita cukup yakin dengan kapabilitas pelaksana quick count. Kesalahan yang paling mungkin terjadi adalah penentuan lokasi TPS yang dijadikan sampel. Lokasi TPS tersebut bisa mewakili 10 atau bahkan 100 TPS lain yang dianggap mempunyai karakteristik yang sama. Dalam kenyataaanya, kita bisa menjumpai satu TPS yang mayoritas mendukung salah satu pasangan calon, dan TPS di sebelahnya mayoritas mendukung pasangan calon yang lain. Hal ini bisa memberikan bias pada hasil akhir, tetapi dapat dieliminir dengan teknik normalitas data.

Tingkat kesalahan yang biasa dipergunakan dalam quick count adalah sebesar 2%. Artinya, jika selisih antara satu calon dengan calon lain lebih kecil dari 2%, maka sangat mungkin terjadi kesalahan hasil quick count. Akan tetapi, jika selisih antara calon satu dengan calon yang lain lebih dari 2% maka hasilnya boleh dikatakan valid atau benar, sesuai dengan kaidah-kaidah statistik yang berlaku. Pada pemilihan Gubernur Jawa Tengah, pasangan pemenang pemilu mempunyai selisih yang jauh dengan pasangan dengan suara terbanyak kedua (lebih dari 2%). Dan kita bisa melihat, bahwa hasil quick count semua lembaga survey pemilihan gubernur di Jawa Tengah adalah sama dengan hasil akhir yang diumumkan KPU.

Fenomena terbaru yang muncul adalah adanya kesalahan dari berbagai lembaga survey pada pemilihan gubernur tahap kedua di Jawa Timur. Hasil akhir adalah 7.729.944 suara untuk Karsa dan 7.669.721 untuk pasangan Kaji. Atau dengan prosentase, maka suara untuk Karsa adalah sebesar 7.729.944/15.399.665 = 50,196% dan untuk pasangan Kaji adalah sebesar 7.669.721/15.399.665 = 49,804%. Selisih suara dari kedua pasangan tersebut adalah 50,196% – 49,804% = 0,392% atau jauh di bawah toleransi keakuratan quick count yaitu sebesar 2%. Terdapat beberapa lembaga survey pelaksanan quick count yang mengumumkan bahwa pemenangnya adalah Kaji, padahal hasil akhir dari KPUD pemenangnya adalah Karsa.

Hasil perhitungan di atas menunjukkan bahwa untuk pasangan yang mempunyai suara hampir sama, hasil quick count menjadi tidak akurat. Dalam hal ini, sebaiknya Lembaga Swadaya Masyarakat (LSM) penyelenggara quick count tidak mempublikasikan hasil perhitungan mereka dengan pertimbangan teknis. Hal ini dikarenakan masih banyak masyarakat yang (maaf) belum memahami quick count sehingga dianggap sebagai suatu hasil penghitungan yang bisa dijadikan dasar untuk melakukan tindakan hukum. Fenomena yang terkenal yang bisa dirujuk adalah ketika ilmuwan Inggris menguji teori Albert Einstein tentang pergeseran cahaya bintang ketika melewati suatu masa yang cukup masif, yaitu matahari. Pengukuran dilakukan di waktu gerhana matahari pada sekitar tahun 1919. Hasil pengukuran yang dihasilkan sesuai dengan teori yang ada, tetapi mempunyai tingkat kesalahan yang lebih besar dari pada hasil pengukuran tersebut. Ini merupakan cacat fatal yang harus diverifikasi oleh ilmuwan lain pada beberapa tahun berikutnya, meskipun hasil akhir verifikasi menunjukkan bahwa teori itu memang benar, pada taraf signifikansi yang masih diijinkan.

Output statistik, dalam hal ini adalah quick count adalah sederetan angka yang tidak mempunyai makna apapun terhadap realitas, sebelum ada adjustment dari kita, manusia pengguna statistik. Tidak selayaknya hasil quick count menjadi dasar untuk melakukan tindakan hukum karena suara yang resmi adalah penghitungan yang dilakukan oleh KPUD. Statistik adalah sarana yang dapat dipergunakan untuk mengambil keputusan secara tepat dan cepat, jika penggunanya adalah manusia cerdas, jujur dan bertakwa. Sebaliknya, di tangan manusia yang tidak cerdas dan tidak amanah, statistik bisa menjadi alat yang sangat mematikan. Manipulasi terhadap data statistik dapat digunakan untuk melakukan kebohongan publik yang bertujuan demi kepentingan pribadi atau kelompok.

Diposkan oleh Konsultan Statistik di 16:38 0 komentar Link ke posting ini

Label:

Kebohongan Statistik

Waduw…judulnya kok ngeri… he he…jangan berpikiran serem-serem dulu atau berpikir dosa karena berbohong. Orang yang suka bohong, akan berkata, bahwa satu kebohongan untuk suatu kebaikan adalah sama dengan seribu kebaikan. Anda setuju? Yah. Kalau saya sich, tergantung demi kebaikan siapa? Terus efek dari bohong itu membuat kerugian pada berapa orang??? OK??? Jadi mending, satu kebaikan, jika dilakukan seribu kali, maka akan sama dengan seribu kebaikan. Ha. Ha. Ha.

Eh ngomong-ngomong, anda pernah lihat iklan salah satu produk pembalut wanita yang bunyinya kira-kira seperti ini: ‘7 dari 10 wanita menggunakan XXXXX’. Inget? Berarti penonton diarahkan untuk membuat kesimpulan bahwa 70% wanita menggunakan pembalut dengan merek yang ditawarkan tersebut. Anda percaya? Jika anda tidak percaya, maka anda dapat melakukan klarifikasi kepada produsen pembalut tersebut. Dan ternyata, mereka benar-benar melakukan survey dengan cara yang metode yang benar. Mereka benar-benar datang ke sekolah-sekolah menengah (kebanyakan SMP, tetapi kadang juga SMA) lalu memberikan kuesioner tentang merek pembalut apa yang mereka gunakan. Pelaksanaan survey tersebut dapat dilihat oleh orang luar secara bebas. Analisis yang digunakan juga dapat dicek oleh orang lain. Dan hasilnya memang benar-benar fantastis, 70% responden menggunakan merek yang diproduksi oleh mereka.

Wah…wah… apakah berarti merek tersebut merupakan market leader produk pembalut wanita. Ternyata tidak. Jika dilihat data yang dikeluarkan oleh Om Nielsen, ternyata market leader produk pembalut wanita bukan itu. Bahkan tidak ada satu merek pun yang mampu meraih market share sampai dengan 70%. Nah…lho???

Itulah yang disebut sebagai kebohongan statistik. Saya bisa tunjukkan kepada anda, dengan metode statistik yang benar, bahwa lebih dari 90% orang suka mengisi kuesioner. Anda percaya? Pasti tidak. Bagi anda yang pernah melakukan penyebaran kuesioner pasti menyanggah karena anda benar-benar merasakan bahwa minat orang untuk mengisi kuesioner tidak sampai sebesar itu, kalau tidak boleh dikatakan rendah. Begini, coba buatlah kuesioner yang berisi pertanyaan “apakah anda suka dengan kuesioner? Kirimkan ke 10.000 responden yang anda ambil secara acak, misalnya dari buku telepon. Agar responden tidak repot, maka pakai pos berlangganan, sehingga responden tidak perlu membeli perangko untuk mengirimkan kuesioner tersebut kepada anda. Hasilnya, dari 10.000 kuesioner yang dikirim, mungkin akan kembali beberapa ratus kuesioner. Dan saya yakin bahwa kebanyakan isinya adalah bahwa responden suka dengan kuesioner. Mengapa? Karena yang tidak suka akan membuang kuesioner tersebut ke tempat sampah atau dipakai buat bungkus kacang…jadi yang mengembalikan kuesioner pastilah orang yang suka dengan statistik.

Contoh metode di atas mempunyai cacat yaitu bahwa sampel penelitian tidak representatif karena tidak mewakili responden yang tidak mengirimkan kuesioner kembali. Kembali kepada riset pembalut wanita di atas, pelaksanaan pengambilan data dilakukan pada sekolah-sekolah menengah, sehingga sampelnya hanyalah pemakai pembalut pemula. Ini sudah cacat karena tidak mewakili konsumen secara keseluruhan. Cacat kedua, adalah bahwa pelaksanaan pengambilan data dilakukan setelah produsen menyelenggarakan acara promosi di sekolah tersebut. Bintang-bintang terkenal didatangkan untuk memeriahkan acara tersebut. Setelah itu, berbagai door prize dibagikan disertai dengan contoh produk. Nah setelah itu, barulah diberi kuesioner. Bayangkan aja, anak SMP diperlakukan kayak gitu. Ya pastilah mereka menjawab hal-hal yang baik. Menurut saya, seharusnya hasil survey adalah 100% he he…

Banyak sekali kebohongan statistik yang terjadi di sekeliling kita. Banyak sekali output penelitian, baik skripsi maupun tesis dihasilkan dari manipulasi data. Hal tersebut sudah menjadi rahasia umum. Tapi yah… mau gimana lagi. Ketika mendapati hasil suatu penelitian yang tidak sesuai teori, pastilah repot ketika ujian. Tul gak? Dosen sendiri juga mendukung adanya manipulasi tersebut (he he sori bapak/ibu dosen). Pelaksanaan ujian akan lebih mudah kalau hasil penelitian sesuai teori dari pada yang bertentangan dengan teori, tetapi data yang dipakai benar-benar aktual tanpa manipulasi. Jadi ya mahasiswanya berpikir, dari pada apa adanya repot pas ujian, ya datanya diganti aja biar signifikan dan enak pas ujian.. Hi…hi……..

Lha terus gimana? Ya saya juga tidak tahu… saya bukan mahasiswa dan juga bukan dosen….. Hi..hi…..hi….. Saya membuat blog ini untuk berbagi dengan banyak orang agar tertarik dengan statistik. Soalnya apa? Karena saya pernah benar-benar dipusingkan dengan deretan data yang banyak sekali ketika bekerja di sebuah pabrik manufacturing. Ada lebih dari 10.000 item produk yang harus saya tangani sehingga saya harus menggunakan teknik statistik untuk meng-handle-nya. Pusing saya. Jadi saya pengin juga banyak orang yang tertarik dengan statistik, ikut mempelajari, dan ikut-ikutan pusing seperti saya….HA.HA.HA.HA.HA.HA.HA.

Anda punya catatan kebohongan statistik yang lain??? Silahkan berbagi… tapi tolong jangan bagi pusingnya ya…..It’s enough.

Diposkan oleh Konsultan Statistik di 16:36 0 komentar Link ke posting ini

Label:

Justifikasi Penerimaan Hipotesis

Biasanya pada naskah skripsi atau tesis yang menggunakan analisis linear regresi berganda akan mempunyai hipotesis parsial (diuji dengan uji t) dan hipotesis simultan (diuji dengan uji F). Fenomena tersebut seolah-olah sudah latah dilakukan oleh mahasiswa dan juga disetujui oleh dosen pembimbing, yang sangat mungkin bukan berasal dari ilmu statistik.

Perumusan hipotesis parsial didasari oleh dasar teori yang kuat dan dapat dengan mudah dilakukan oleh mahasiswa dengan bantuan dosen, karena dosen memang sangat menguasai tentang hal itu. Akan tetapi, sebenarnya hipotesis simultan sering kali didasari oleh teori yang seolah-olah dipaksakan. Sebenarnya uji F adalah untuk melihat kelayakan modal saja. Jika uji F tidak signifikan, maka tidak disarankan untuk melakukan uji t atau uji parsial. Jadi hipotesis simultan sebenarnya tidak selalu harus dirumuskan dalam suatu penelitian. Toh dasar teorinya juga sangat lemah.

Penentuan penerimaan hipotesis dengan uji t dapat dilakukan berdasarkan tabel t. Nilai t hitung hasil regresi dibandingkan dengan nilai t pada tabel. Jika t hitung > t tabel maka berarti terdapat pengaruh yang signifikan secara parsial, dan sebaliknya jika t hitung < t tabel maka tidak terdapat pengaruh yang signifikan secara parsial. Hal tersebut juga berlaku untuk F hitung. Cara melihat nilai t tabel dan F tabel sudah banyak dibahas pada berbagai buku statistik. Misalnya untuk jumlah sampel 100 maka nilai t tabel untuk signifikansi 5% adalah dengan melihat nilai t dengan degree of freedom sebesar N – 2 = 100 – 2 = 98 untuk hipotesis dua arah. Nilai t dilihat pada kolom signifikansi : 2 = 5% : 2 = 0,025. Jika pengujian satu arah, maka df adalah 100 – 1 = 99 dan dilihat pada kolom 5%.

Untuk uji F, maka df dihitung dengan N – k – 1 dengan k adalah jumlah variabel bebas. Anda jangan bertanya, bagaimana kalau uji satu arah dan dua arah pada uji F. Uji F tidak mengenal arah, jadi ya pasti satu arah. Logika uji dua arah, adalah terdapat pengaruh antara variabel bebas terhadap variabel terikat, dan uji satu arah adalah terdapat pengaruh negatif/positif antara variabel bebas antara variabel bebas terhadap variabel terikat. Lha kalau uji F kan uji simultan, jadi bagaimana menentukan arah positif atau negatif. Penulis sangat prihatin jika ada orang bertanya uji F yang digunakan satu arah atau dua arah. Wah kalau Mbah Fisher (penemu uji F) tahu bisa sakit jantung!!! Untuk Mbah Fisher sudah gak punya jantung… Ha ha ha….

Diposkan oleh Konsultan Statistik di 16:36 0 komentar Link ke posting ini

Label:

Wawancara

Metode pengumpulan data dengan wawancara lebih banyak dilakukan pada penelitian kualitatif dari pada penelitian kuantitatif. Kelebihan metode wawancara adalah peneliti bisa menggali informasi tentang topik penelitian secara mendalam, bahkan bisa mengungkap hal-hal yang mungkin tidak terpikirkan oleh peneliti itu sendiri. Akan tetapi, metode wawancara memerlukan kecakapan peneliti yang lebih dari pada pengumpulan data dengan metode yang lain. Pada penelitian kuantitatif, metode wawancara digunakan untuk melengkapi atau mendukung hasil penelitian, di mana penelitian kuantitatif lebih menekankan pengumpulan data dengan menggunakan metode kuesioner, observasi atau dokumentasi.

Terdapat metode wawancara secara terbuka, yaitu di mana peneliti tidak menggunakan guidance tertentu dalam melakukan wawancara. Jenis ini sering disebut dengan metode tidak terstruktur. Peneliti menanyakan topik awal pada responden, lalu menggali secara mendalam informasi yang ada pada responden tanpa terlalu terikat dengan topik penelitian. Metode ini sering digunakan untuk menentukan judul penelitian, atau pada penelitian kualitatif, di mana peneliti merupakan bagian dari penelitian itu sendiri. Dibutuhkan skill yang tinggi untuk melaksanakan wawancara tidak terstruktur.

Jenis kedua adalah metode semi terstruktur, di mana peneliti mempunyai guidance tentang item apa saja yang akan ditanyakan. Topik yang digali tetap bisa berkembang, akan tetapi peneliti tetap harus memfokuskan pada item yang telah ditentukan sebelumnya.

Jenis ketiga adalah metode terstruktur. Metode ini bisa saja merupakan metode kuesioner, di mana responden mempunyai keterbatasan sehingga tidak mampu melakukan pengisian kuesioner sendiri. Peneliti tinggal menanyakan apa yang ada pada naskah yang telah dipersiapkan sebelumnya. Tidak ada pengembangan informasi yang lebih mendalam pada metode wawancara terstruktur.

Metode mana yang akan dipilih tergantung dari tujuan anda melakukan wawancara. Hal yang penting harus dilakukan sebelum melakukan wawancara adalah mempersiapkan item apa saja yang akan ditanyakan. Anda akan menggali secara mendalam informasi dari responden tanpa terikat dengan tujuan penelitian anda, atau anda akan membatasi topik wawancara hanya sebatas tujuan penelitian yang telah ditetapkan sebelumnya.

Tahapan yang dapat digunakan dalam wawancara adalah:

1. Tentukan jenis wawancara yang akan digunakan. Kalau penelitian kualitatif, sebaiknya gunakan wawancara tidak terstruktur untuk pewawancara yang sudah berpengalaman, atau semi terstruktur untuk pewawancara yang belum berpengalaman.

2. Rencanakan item pertanyaan dengan baik sehingga pelaksanaan akan lebih efisien. Pewawancara harus mengerti tentang topik penelitian dan informasi apa saja yang akan diungkap dari responden.

3. Bagi pewawancara yang belum berpengalaman, tidak ada salahnya untuk melakukan latihan, atau simulasi terlebih dahulu. Bisa juga dengan mengikuti proses wawancara yang dilakukan oleh rekan yang lebih senior.

4. Gunakan sarana semaksimal mungkin sehingga informasi yang ada tidak terlewatkan. Buatlah panduan dengan checklist (seperti metode dokumentasi) atau gunakan alat perekam audio atau video.

5.Aturlah waktu dengan baik agar pelaksanaan wawancara dapat berjalan dengan efektif dan jika perlu dapat dilakukan tatap muka lebih dari satu kali sesuai dengan keperluan penelitian.

Diposkan oleh Konsultan Statistik di 16:34 0 komentar Link ke posting ini

Label: ,

Statistic For Election

Sory ya, ini tulisan tidak membahas statistik untuk keperluan penelitian atau skripsi, tetapi hal yang lain. Ilmu statistik merupakan ilmu yang boleh dikata digunakan oleh hampir semua orang (baca naskah hakekat statistik). Dan secara sadar atau tidak, statistik bermanfaat untuk menentukan kehidupan sosial dan bernegara (kalimatnya kayak sosiolog ya). Coba lihat saja, polling tentang pemilihan umum di Amerika antara Barack Obama dan McCaine, atau tentang Quick count. Pelaksanaannya menggunakan ilmu statistik dan hasilnya sangat dipercaya oleh masyarakat.

Metode polling untuk menentukan siapa yang unggul atau populer menggunakan teknik sampling yang sangat hati-hati agar mewakili seluruh rakyat di suatu negara. Penghitungan quick count juga menggunakan metode serupa dan biasanya menggunakan proportionate sample. Misalnya begini, Indonesia dibagi menjadi beberapa bagian berdasarkan karakteristik masing-masing daerah. O ya biasanya pembagian daerah dilakukan oleh ahli sosiolog yang tahu benar perbedaan karakteristik daerah dalam hal pemilihan presiden. Lalu masing-masing daerah dibagi-bagi lagi menjadi beberapa daerah yang lebih kecil, demikian seterusnya sehingga diperoleh beberapa lokasi pemilihan umum yang mampu mewakili daerah tertentu. Pada daerah yang dipilih tersebut, hasil perhitungan langsung ditransfer ke kantor pusat lalu dikonversikan ke seluruh pemilih yang diwakili. Demikian seterusnya sehingga akan ditemukan siapa pemenang pemilu secara cepat karena tidak perlu menghitung seluruh suara yang masuk.

Hasil quick count selama ini tepat 100%. Artinya, jika quick count menyatakan pemenangnya adalah SBY yang hasil akhir juga akan memberikan hasil yang pasti sama. Sebenarnya quick count masih mempunyai toleransi kesalahan, biasanya sebesar 2%. Berarti misalnya suara Barack Obama 51,1% dan suara McCaine 48,9% berdasarkan hasil quick count, maka lembaga penghitung biasanya tidak akan mengeluarkan hasil quick count karena selisihnya hanya sebesar 1,2% saja. Akan tetapi kalau selisihnya banyak, misalnya Barack Obama 65% dan McCaine 35% maka pastilah hasil quick count akan sama dengan hasil akhir karena selisihnya sebesar 30% yang sangat jauh dari toleransi 2%.

Metode quick count juga sering dilakukan pada pemilihan daerah gubernur atau bupati/walikota. Dalam hal ini pelaksanaannya akan lebih mudah, karena penentuan karakteristik daerah lebih mudah.

Sebenarnya statistik juga bisa dimanfaatkan oleh kandidat. Partai yang mendukung bisa mengidentifikasikan di mana saja dukungan kepada calon mereka. Dengan demikian kebijakan kampanye juga dapat disesuaikan. Dengan statistik, tim suksesi juga dapat mengetahui karakteristik dari pemilih, apakah petani, pengusaha atau karyawan. Banyak calon yang seolah-olah terkenal tetapi ketika pemilihan umum kalah mutlak. Mengapa? Karena mereka melakukan kampanye di kota-kota besar dan seakan-akan mempunyai banyak pendukung. Padahal sebagian besar wilayah Indonesia berada di daerah pedesaan yang tidak bersuara, tetapi mempunyai kapasitas suara yang besar. Nah, makanya kalau mau kampanye hati-hati. Lakukan secara bijaksana sehingga dana yang keluar tidak sia-sia. Tidak ada salahnya menggunakan ilmu statistik untuk memenangkan pemilu. Jadi jangan hanya pasang iklan, banner, spanduk saja, tetapi tentukan siapa saja yang menjadi sasaran, berapa suara potensial yang ada. Isu-isu yang diangkat juga harus mewakili kepentingan orang banyak.

Diposkan oleh Konsultan Statistik di 16:32 0 komentar Link ke posting ini

Label:

Rabu, 18 Maret 2009

Penanggulangan Multikolinearitas dengan First Difference Delta

Penanggulanan gangguan multikolinearitas secara lengkap (tetapi singkat) telah dibahas pada naskah sebelumnya. Dari enam langkah tersebut (sebenarnya ada lebih dari 6 langkah) mungkin hanya ada satu langkah yang akan paling enak digunakan. Mengapa? Karena langkah yang lain berkaitan dengan penambahan sampel, atau pengubahan model penelitian. Hal tersebut akan terbatas sekali dilakukan karena berarti juga akan mengubah tinjauan teoretis yang telah dilakukan sebelumnya. Langkah yang mungkin tidak perlu mengganti model penelitian atau teori adalah langkah transformasi. Langkah menghilangkan salah satu variabel yang terkena gangguan multikolinearitas juga sering dilakukan, tetapi tidak akan dibahas di sini karena langkahnya cukup jelas. Yaitu cari VIF tertinggi, lalu keluarkan dari model penelitian.
Pelaksanaan transformasi variabel dilakukan dengan, misalnya ada model persamaan regresi seperti ini:

Y = Bi + B2 X1 + B3 X2 + e

Setelah dianalisis ternyata ada gangguan multikolinearitas serius antara X1 dan X2 maka dianalisis ulang dengan data transformasi sebagai berikut:

Y* = Yi – Yi – 1
X1* = X1 – X1(i-1)
X2* = X2 – X2(i-1)

Apakah anda bisa mengerti persamaan tersebut? He he pasti bisa lah. Gampang kok. Begini. Dalam satu variabel, kan ada urutan data dari 1 sampai katakanlah 100. Lalu begini, data kedua dikurangi data pertama. Bisa kan? Kurangi saja, mau pake kalkulator, atau Excel, atau pake manual juga boleh. Hasil pengurangan tersebut merupakan data pertama pada variabel transformasi. Kemudian data ketiga dikurangi data kedua, dan menjadi data kedua pada variabel transformasi. Demikian seterusnya sampai selesai. Berarti jika terdapat 100 data pada variabel awal, maka variabel transformasi akan menjadi 99 (berkurang 1). Yup???

Lakukan pada semua variabel sehingga model regresi seperti ini:

Y* = Bi + B2 X1* + B3 X2* + e

Lalu lakukan uji multikolinearitas lagi. Transformasi data tadi sering disebut dengan istilah gaul dengan First difference delta. Kalau dengan transformasi tadi masih terdapat gangguan multikolinearitas, maka kurangkanlah sekali lagi, sehingga data menjadi 98 yang sering disebut second difference delta. Dan jika masih terdapat gangguan multikolinearitas lagi, ya keluarkan saja variabel yang mempunyai nilai VIF tertinggi.

O ya, sebenarnya gangguan multikolinearitas harus dideteksi dari awal ketika menyusun model regresi. Misalnya pada penelitian Bursa Efek Indonesia (BEI) variabel yang akan terkena gangguan multikolinearitas misalnya ROA dan ROE karena sama-sama menggunakan earning after tax sebagai penyebut rasio. Tapi itu juga tidak mesti lho….hanya kecenderungan saja.

Kadang-kadang juga ada transformasi variabel menjadi variabel dummy. Dummy itu variabel yang datanya hanya berisi 0 dan 1. Caranya gampang, cari nilai tengahnya, lalu yang lebih kecil dari nilai tengah diganti dengan 0, yang lebih besar dari pada nilai tengah diganti dengan 1. Lalu coba cek nilai VIF lagi dengan regresi. Atau misanya jika variabel tersebut berisi data positif dan negatif, misalnya laba, bisa juga dilakukan 0 untuk perusahaan yang rugi dan 1 untuk perusahaan yang untung. Coba ya… ntar kalau ada masalah silahkan kontek lagi. Soalnya juga masih ada cara penanggulangan multikolinearitas lain tanpa menghilangkan salah satu variabel yaitu dengan Generalized Least Square (GLS). Ouw.. makanan apaan tuh?????

Diposkan oleh Konsultan Statistik di 23:00 6 komentar Link ke posting ini

Label: ,

Penanggulangan Gangguan Multikolinearitas

Secara umum, tindakan perbaikan terhadap multikolinearitas dapat dilakukan sebagai berikut.

1. Adanya informasi sebelumnya. Misal kita mempunyai model sebagai berikut.

Yi = B1 + B2 X2i + B3 X3i + Îi
Y = konsumsi
X2 = pendapatan
X3 = kekayaan

Telah disebutkan bahwa pendapatan dan kekayaan mempunyai kolineritas yang tinggi, tetapi misalnya kita memperoleh informasi sebelumnya sehingga kita mempunyai kepercayaan bahwa B3 = 0,1B2 dengan tingkat perubahan konsumsi terhadap perubahan kekayaan sepersepuluh dari tingkat perubahan terhadap pendapatan. Sehingga modelnya menjadi :

Yi = B1 + B2 X2i + B3 X3i + Îi
Yi = B1 + B2 Xi + Îi
Di mana:
Xi = X2i + 0,1X3i

Begitu kita menghitung b2 sebagai perkiraan B2 maka b3 sebagai perkiraan B3 secara otomatis dapat diketahui berdasarkan informasi bahwa B3 = 0,1 B2.

2. Menghubungkan data cross sectional dan data urutan waktu, yang dikenal sebagai penggabungan data (pooling the data). Misalkan kita ingin mempelajari permintaan mobil di suatu negara dan kita mempunyai data tentang banyaknya mobil yang dijual, rata-rata harga mobil, dan pendapatan konsumen.
InYt = B1 + B2 In X2t + B3 In X3t + Îi
Dimana:
Yt = banyaknya mobil yang dijual
X2 = rata-rata harga mobil
X3 = pendapatan konsumen
Tujuan kita adalah menduga elastisitas harga B2 dan elastisitas pendapatan B3. Dalam data runtut waktu variabel harga dan pendapatan cenderung untuk berkolinearitas. Oleh karena itu, kalau kita melakukan regresi maka dihadapkan pada masalah multikolinearitas. Jalan keluar mengenai masalah ini adalah dengan mendapatkan dugaan yang dapat dipercaya dari elastisitas pendapatan B3, karena dalam data seperti itu, pada suatu titik waktu, harga tidak banyak berubah. Misalkan elastisitas pendapatan yang diduga menggunakan data seksi silang adalah B3*. Dengan menggunakan dugaan, regresi runtut waktu tadi dapat ditulis sebagai berikut.
Yt* = B1 + B2 In X2t + mt
Dimana Yt* = In Yt – B3* In X3t dan menyatakan nilai Y setelah menghilangkan pengaruh pendapatan darinya. Sekarang kita dapat memperoleh suatu dugaan dari elastisitas harga B2 dari regresi tadi.
Teknik ini bisa menciptakan masalah dalam interpretasi, karena secara implisit kita mengasumsikan bahwa elastisitas pendapatan yang diduga dengan cara seksi silang adalah elastisitas yang sama akan diperoleh dari analisis runtut waktu. Meskipun demikian, teknik tadi layak dipertimbangkan dalam situasi di mana dugaan seksi silang tidak berbeda banyak dari satu seksi silang ke seksi silang lainnya.

3. Mengeluarkan satu variabel atau lebih. Jika dipandang telah terjadi gangguan multikolinearitas yang serius pada fungsi regresi yang dianalisis maka cara untuk menanggulanginya adalah dengan mengeluarkan salah satu dari dua variabel bebas yang mempunyai nilai korelasi sederhana relatif tinggi (misalnya > ú0,8ê).

4. Transformasi variabel. Menganalisis ulang model regresi yang sama, tetapi dengan nilai variabel-variabel yang telah ditransformasikan, sehingga diharapkan gangguan multikolinearitas dapat diatasi. Misalnya, model yang dianggap benar secara teoritis adalah
Yi = Bi + B2 X2i + B3 X3i + Îi
Setelah dianalisis ternyata ada gangguan multikolinearitas serius antara X2 dan X3 maka dianalisis ulang dengan data transformasi sebagai berikut.
Y* = Yi – Yi – 1
X2* = X2i – X2(i-1)
X3* = X3i – X3(i-1)

5. Penambahan data baru. Cara preventif yang sederhana dilakukan adalah dengan mempersiapkan sampel data yang cukup besar sehingga dapat mengurangi kemungkinan terjadinya gangguan multikolinearitas yang serius di antara variabel bebas. Hal ini sangat penting dilakukan, mengingat semakin sedikit sampel yang diambil dalam penelitian akan cenderung meningkatkan adanya gangguan.

6. Cara lain dengan backward combination analysis. Caranya adalah dengan meregresikan secara berulang-ulang variabel tak bebas dengan pasangan-pasangan variabel bebas yang kombinasinya berbeda-beda. Signifikan (bi) yang paling banyak dijumpai pada salah satu analisis tersebut dapat dijadikan model untuk pengambilan keputusan, dengan asumsi gangguan-gangguan lainnya tidak diperoleh. Cara ini mudah dilakukan dengan bantuan paket komputer, tetapi rumit jika harus dilakukan secara manual.

Teknik-teknik di atas masih disampaikan secara global. Jika sudah bisa mengaplikasikan ya syukur. Tetapi kalau belum, mohon menunggu publikasi naskah selanjutnya. Sabar…sabar…..

Diposkan oleh Konsultan Statistik di 22:59 3 komentar Link ke posting ini

Label: ,

Data Penelitian

Berdasarkan cara pengambilannya, data terbagi menjadi beberapa jenis yaitu sebagai berikut:

Data Primer
Adalah data yang diambil dari sumber data secara langsung oleh peneliti atau yang mewakilinya di mana peneliti melakukan pengukuran sendiri. Data tersebut misalnya data kuesioner, data pengukuran tinggi atau berat badan, di mana peneliti melakukan pengukuran sendiri.

Data Sekunder
Adalah data yang diambil tidak dari sumber langsung asli. Misalnya data yang diperoleh dari buku, dari suatu dokumen, atau bisa juga dari hasil kuesioner yang telah dilakukan oleh peneliti lain.

Misalnya anda melakukan penelitian tentang rasio-rasio keuangan yang ada di Bursa Efek Indonesia, ya termasuk data sekunder. Tetapi misalnya anda memberikan kuesioner terhadap direktur pada perusahaan yang terdaftar di Bursa Efek Indonesia, namanya data primer.

Sebenarnya pembagian data ke dalam primer dan sekunder tidak terlalu menjadi kajian penting dalam suatu naskah penelitian. Akan tetapi, kadang-kadang banyak dosen yang mempermasalahkan dan tidak mau memberikan tanda tangannya sebelum di naskah ditambahi keterangan tentang data primer dan sekunder. Tetapi dalam kasus lain, ada juga yang mahasiswanya bener-bener buta. Sehingga ketika ujian ditanya data yang digunakan data apa? Primer atau sekunder? Mahasiswa tersebut tidak bisa menjawab alias bingung. Dalam kasus ini, ya mungkin memang dalam naskah harus dicantumkan pengertian data primer dan data sekunder.

Diposkan oleh Konsultan Statistik di 22:57 0 komentar Link ke posting ini

Label: ,

Metode Pengumpulan Data

Mengumpulkan data memang pekerjaan yang melelahkah dan kadang-kadang sulit. Berjalan dari rumah ke rumah mengadakan interview atau membagi angket, belum lagi kalau satu dua kali datang belum berhasil bertemu dengan orang yang dicari, atau malah dikejar anjing penjaga. Kadang-kadang sampai ke kantor, atau suatu tempat dan disambut dengan dingin, bahkan kadang-kadang raut wajah yang kecut. Pekerjaan seperti ini sering diberikan kepada pembantu-pembantu peneliti yunior, sedangkan para senior cukup membuat desain, menyusun instrumen, mengolah data, dan mengambil kesimpulan. Yang diambil kesimpulannya adalah olahan data yang pengumpulan banyak dipengaruhi oleh faktor siapa yang bertugas mengumpulkan data. Jika pengumpul data melakukan sedikit kesalahan sikap dan interview misalnya, akan mempengaruhi data yang diberikan oleh responden. Kesimpulannya dapat salah. Maka mengumpulkan data merupakan pekerjaan yang penting dalam meneliti. Empat jenis metode pengumpulan data adalah sebagai berikut:

Kuesioner
Data yang diungkap dalam penelitian dapat dibedakan menjadi tiga jenis, yaitu: fakta, pendapat, dan kemampuan. Untuk mengukur ada atau tidaknya serta besarnya kemampuan objek yang diteliti, digunakan tes. Perlu kita pahami bahwa yang dapat dikenai tes bukan hanya manusia. Mesin mobil jika akan diketahui masih baik atau tidak, data kemampuannya seberapa, juga dites dengan alat tertentu. Untuk manusia, instrumen yang berupa tes ini dapat digunakan untuk mengukur kemampuan dasar dan pencapaian atau prestasi.

Sebagian besar penelitian umumnya menggunakan kuesioner sebagai metode yang dipilih untuk mengumpulkan data. Kuesioner atau angket memang mempunyai banyak kebaikan sebagai instrumen pengumpul data. Memang kuesioner baik, asal cara dan pengadaannya mengikuti persyaratan yang telah digariskan dalam penelitian. Sebelum kuesioner disusun, maka harus dilalui prosedur.
1. Merumuskan tujuan yang akan dicapai dengan kuesioner.
2. Mengidentifikasikan variabel yang akan dijadikan sasaran kuesioner.
3. Menjabarkan setiap variabel menjadi sub-variabel yang lebih spesifik dan tunggal.
4. Menentukan jenis data yang akan dikumpulkan, sekaligus untuk menentukan teknik analisisnya.

Penentuan sampel sebagai responden kuesioner perlu mendapat perhatian pula. Apabila salah menentukan sampel, informasi yang kita butuhkan barangkali tidak kita peroleh secara maksimal. Kita ambil contoh, kita ingin mengetahui daya tarik orang terhadap kuesioner. Maka kita mengirimkan ribuan kuesioner kepada responden secara acak melalui buku telepon dan meminta mereka untuk mengembalikan lewat pos berlangganan, jadi responden tidak perlu membeli perangko. Hasilnya dapat ditebak, yaitu bahwa semua responden akan suka dengan kuesioner. Mengapa? Tentu saja, responden yang tidak suka dengan kuesioner akan membuang kuesioner ke tempat sampah atau dijadikan bungkus kacang.

Angket anonim memang ada kebaikannya karena responden bebas mengemukakan pendapat. Akan tetapi penggunaan angket anonim mempunyai beberapa kelemahan pula.

1. Sukar ditelusuri apabila ada kekurangan pengisian yang disebabkan karena responden kurang memahami maksud item.
2. Tidak mungkin mengadakan analisis lebih lanjut apabila peneliti ingin memecah kelompok berdasarkan karakteristik yang diperlukan.

Berbagai penelitian memberikan gambaran hasil bahwa tidak ada perbedaan ketelitian jawaban yang diberikan oleh orang dewasa, baik yang anonim maupun yang bernama. Faktor-faktor yang mempengaruhi perlu tidaknya angket diberi nama adalah:

1. Tingkat kematangan responden.
2. Tingkat subjektivitas item yang menyebabkan responden enggan memberikan jawaban (misalnya gaji untuk pria dan umur untuk wanita).
3. Kemungkinan tentang banyaknya angket.
4. Prosedur (teknik) yang akan diambil pada waktu menganalisis data.

Salah satu kelemahan metode angket adalah bahwa angketnya sukar kembali. Apabila demikian keadaannya maka peneliti sebaiknya mengirim surat kepada responden yang isinya seolah-olah yakin bahwa sebenarnya angketnya akan diisi tetapi belum mempunyai waktu. Surat yang dikirim itu hanya sekadar mengingatkan.

Wawancara
Di samping memerlukan waktu yang cukup lama untuk mengumpulkan data, dengan metode interview peneliti harus memikirkan tentang pelaksanaannya. Memberikan angket kepada responden dan menghendaki jawaban tertulis, lebih mudah jika dibandingkan dengan mengorek jawaban responden dengan bertatap muka.

Sikap pada waktu datang, sikap duduk, kecerahan wajah, tutur kata, keramahan, kesabaran serta keseluruhan penampilan, akan sangat berpengaruh terhadap isi jawaban responden yang diterima oleh peneliti. Oleh sebab itu, maka perlu adanya latihan yang intensif bagi calon interviewer (penginterviu).

1. Agar tidak ada pokok-pokok yang tertinggi.
2. Agar pencatatannya lebih cepat.

Secara garis besar ada dua macam pedoman wawancara :
1. Pedoman wawasan tidak terstruktur, yaitu pedoman wawancara yang hanya memuat garis besar yang akan ditanyakan. Tentu saja kreativitas pewawancara sangat diperlukan, bahkan hasil wawancara dengan jenis pedoman ini lebih banyak tergantung dari pewawancara. Pewawancaralah sebagai pengemudi jawaban responden. Jenis interviu ini cocok untuk penilaian khusus.
2. Pedoman wawancara terstruktur, yaitu pedoman wawancara yang disusun secara terperinci sehingga menyerupai check-list. Pewawancara tinggal membubuhkan tanda Ö (check) pada nomor yang sesuai.

Pedoman wawancara yang banyak digunakan adalah bentuk “semi structured”. Dalam hal ini maka mula-mula interviewer menanyakan serentetan pertanyaan yang sudah terstruktur, kemudian satu per satu diperdalam dalam mengorek keterangan lebih lanjut. Dengan demikian jawaban yang diperoleh bisa meliputi semua variabel, dengan keterangan yang lengkap dan mendalam.

Sebagai contoh misalnya kita akan menyelidiki pengetahuan dan pendapat mahasiswa tentang perguruan tinggi di mana mereka kuliah. Pertama-tama mereka kita tanya tentang tahun berapa masuk, sekarang di tingkat berapa, mengambil mata kuliah apa saja, ekstra kurikuler apa yang diikuti dan sebagainya, kemudian diikuti dengan pertanyaan, antara lain sebagai berikut :
– Pada tahun Saudara masuk, jurusan apa saja yang ada?
– Apakah Saudara lancar menaiki jenjang dari tahun ke tahun?
– Bagaimana sistem penentuan tingkat/sistem kenaikan tingkat?
– Apakah program studi yang diberikan cocok dengan keperluan Saudara jika sudah lulus?

Observasi
Dalam menggunakan metode observasi cara yang paling efektif adalah melengkapinya dengan format atau blangko pengamatan sebagai instrumen. Format yang disusun berisi item-item tentang kejadian atau tingkah laku yang digambarkan akan terjadi. Dari peneliti berpengalaman diperoleh suatu petunjuk bahwa mencatat data observasi bukanlah sekadar mencatat, tetapi juga mengadakan pertimbangan kemudian mengadakan penilaian ke dalam suatu skala bertingkat. Misalnya kita memperhatikan reaksi penonton televisi itu, bukan hanya mencatat bagaimana reaksi itu, dan berapa kali muncul, tetapi juga menilai, reaksi tersebut sangat, kurang, atau tidak sesuai dengan yang kita kehendaki.

Sebagai contoh dapat dikemukakan pengamatan yang dilakukan oleh peneliti untuk mengetahui proses belajar-mengajar di kelas. Variabel yang akan diungkap didaftar, kemudian di tally kemunculannya, dan jika perlu kualitas kejadian itu dijabarkan lebih lanjut.

Dokumentasi
Tidak kalah penting dari metode-metode lain, adalah metode dokumentasi, yaitu mencari data mengenai hal-hal atau variabel yang berupa catatan, transkrip, buku, surat kabar, majalah, prasasti, notulen rapat, lengger, agenda, dan sebagainya. Dibandingkan dengan metode lain, maka metode ini agak tidak begitu sulit, dalam arti apabila ada kekeliruan sumber datanya masih tetap, belum berubah. Dengan metode dokumentasi yang diamati bukan benda hidup tetapi benda mati.

Dalam menggunakan metode dokumentasi ini peneliti memegang check-list untuk mencari variabel yang sudah ditentukan. Apabila terdapat/muncul variabel yang dicari, maka peneliti tinggal membubuhkan tanda check atau tally di tempat yang sesuai. Untuk mencatat hal-hal yang bersifat bebas atau belum ditentukan dalam daftar variabel peneliti dapat menggunakan kalimat bebas.

Diposkan oleh Konsultan Statistik di 22:55 6 komentar Link ke posting ini

Label:

Amos For SEM

Program Analysis Moment of Structural (AMOS) adalah salah satu program yang dirancang khusus untuk menyelesaikan Structural Equation Modeling (SEM). Sebenarnya juga banyak program lain yang serupa misalnya EQS, LISREL, LISCOMP, STATISTICA dan lain-lain. Akan tetapi AMOS merupakan program yang paling banyak digunakan di Indonesia.
Program ini dapat di download secara gratis di http://www.smallwaters.com meskipun hanya merupakan versi student. Versi student sebenarnya sama persis dengan full version, hanya mempunyai beberapa keterbatasan, di antaranya hanya dapat digunakan untuk delapan variabel saja. Tentu saja penelitian yang sebenarnya akan lebih dari delapan variabel, sehingga anda harus membeli untuk mendapatkan full version. Jika anda membeli, akan akan diberi script yang jika anda masukkan ke dalam versi student, maka program AMOS versi student tersebut akan menjadi full version. Jadi sebuah deretan angka dan huruf tetapi mempunyai harga yang sangat mahal!! He he. Jadi kalau anda bisa mendapatkan script tersebut, ya anda dapat menggunakan AMOS full version, tapi..ya namanya bajakan!!! Mungkin sama dengan Windows yang anda gunakan di rumah.

Pada awalnya AMOS berdiri sendiri, dan akhirnya dibeli oleh perusahaan statistik raksasa yaitu Statistic Package for Service Solution (SPSS), sehingga akhirnya kedua program itu digabung menjadi sebuah paket program statistik. Browse aja ke http://www.spss.com. Kelebihan dari program AMOS adalah user friendly meskipun sebenarnya AMOS menggunakan notasi yang dikembangkan oleh LISREL. Penggabungan SPSS dan AMOS memberikan banyak keuntungan bagi para pengguna (baik yang beli maupun yang bajak!!! He he). Ketika berdiri sendiri AMOS tidak mempunyai spreadsheet untuk tabulasi data, sehingga harus mengakses dari program lain, misalnya SPSS itu sendiri, Microsoft Excel atau ASCII. Juga AMOS tidak dapat digunakan untuk uji statistik lain yang sebenarnya sederhana, misalnya analisis deskriptif. Beberapa analisis SEM memang masih memerlukan uji seperti itu, misalnya untuk uji outliers. Dengan penggabungan itu, maka menjadi lebih komprehensif, meskipun, memerlukan spek komputer yang lebih tinggi.

Diposkan oleh Konsultan Statistik di 22:53 0 komentar Link ke posting ini

Label: , ,

Uji Beda

Sesuai dengan namanya, uji beda, maka uji ini dipergunakan untuk mencari perbedaan, baik antara dua sampel data atau antara beberapa sampel data. Dalam kasus tertentu, juga bisa mencari perbedaan antara suatu sampel dengan nilai tertentu. Perhatikan contoh-contoh berikut:

1. Perusahaan ingin mengetahui apakah lampu yang diproduksi mampu menyala lebih dari 1000 jam sesuai dengan standar yang ditetapkan perusahaan.

2. Seorang guru ingin mengetahui apakah suatu model pengajaran memberikan hasil yang berbeda terhadap hasil prestasi belajar dua kelas siswa.

3. Seorang penelitian ingin mengetahui apakah terdapat perbedaan persepsi tentang advertising KAP antara kelompok akuntan publik, kelompok akuntan pendidik dan kelompok pengguna jasa KAP.

Contoh nomor #1 memerlukan uji beda terhadap suatu sampel data dengan nilai tertentu yaitu 1000 jam. Contoh nomor #2 memerlukan uji beda terhadap dua buah sampel yaitu nilai prestasi belajar antara dua kelas. Contoh nomor #3 memerlukan uji beda terhadap tiga kelompok akuntan dalam hal persepsi terhadap advertising KAP.

Juga terdapat jenis uji beda lain selain berdasarkan jumlah kelompok sampel yang diuji. Misalnya jumlah sampel pada masing-masing kelompok juga menentukan jenis uji beda yang digunakan. Jika dua kelompok mempunyai anggota yang sama dan mempunyai korelasi maka dipergunakan uji sampel berpasangan (paired test), dan jika jumlah anggota kelompok berbeda maka memerlukan uji beda, misalnya Uji Wilcoxon, atau Mann-Whitney U-Test.

Masing-masing metode memerlukan kajian tersendiri dan akan dibahas satu persatu. O ya, sebagai tambahan informasi, kenapa uji beda juga sering disebut uji t? Ini sebenarnya tidak penting, hanya sebagai pengetahuan saja. Disebut uji t karena merupakan huruf terakhir dari nama pencetus uji ini yaitu, Grosett. Tambahan lagi, kenapa disebut uji F? Karena merupakan huruf depan dari nama seorang pakar statistik di masa lalu, yaitu Fisher. He he jelas khan? Anda bisa menduga bahwa korelasi Pearson adalah diambil dari nama penemunya yaitu Karl Pearson dan berbagai metode juga diambil dari nama pencetusnya.

O ya lagi (O ya melulu ya?) ada yang latah menyebut bahwa uji beda merupakan uji statistik non parametrik. Anggapan ini kurang tepat, meskipun tidak sepenuhnya salah. Uji t dengan distribusi normal maka tetap merupakan statistik parametrik, akan tetapi jika distribusi data tidak normal, barulah merupakan statistik non parametrik. Jadi penentuan parametrik atau bukan, tidak didasarkan pada jenis uji tetapi tergantung dari distribusi data, apakah normal atau tidak.

Diposkan oleh Konsultan Statistik di 16:36 24 komentar Link ke posting ini

Label:

Pengujian Satu Arah dan Dua Arah

Kita sering mendengar istilah pengujian satu arah (one tailed) dan dua arah (two tailed). Dalam pembahasannya sering kali terjadi kesalahpahaman antara satu peneliti dengan peneliti yang lain, atau antara dosen dengan mahasiswa. Dalam berbagai laporan penelitian juga sering didapati, bahwa hipotesisnya satu arah, tetapi pengujiannya dua arah, atau sebaliknya. Hal tersebut sebenarnya kurang tepat secara statistik (rasanya gak enak kalau mau bilang salah) karena pengujian satu arah dan dua arah adalah hal yang tidak identik dan mempunyai nilai batas yang berbeda.

Pengujian dua arah adalah pengujian terhadap suatu hipotesis yang belum diketahui arahnya. Misalnya ada hipotesis, ‘diduga ada pengaruh signifikan antara variabel X terhadap Y’. Hipotesis tersebut harus diuji dengan pengujian dua arah. Sedangkan hipotesis yang berbunyi, ‘diduga ada pengaruh positif yang signifikan antara variabel X terhadap Y’. Nah, hipotesis tersebut harus diuji dengan pengujian satu arah. Bedanya apa? Lihat saja kedua hipotesis tersebut, ada kata positif dan tidak ada kata positif.

Jadi jika kita sudah mengetahui arah dari hubungan antara dua variabel, maka kita harus menggunakan pengujian satu arah. Coba perhatikan hipotesis ini, ‘diduga X berbeda dengan Y’. Nah pengujiannya apa? Ya jelas pengujian hipotesis dua arah. Berbeda dengan ini, ‘diduga X lebih tinggi dari pada Y’, di mana ini adalah pengujian hipotesis satu arah.

Perumusan hipotesis, apakah menggunakan arah atau tidak dilakukan berdasarkan telaah teoretis, atau merujuk kepada penelitian yang telah ada sebelumnya (kalau ada). Misalnya, sudah ada referensi bahwa variabel X berpengaruh secara signifikan terhadap variabel Y, maka jika kita akan melakukan replikasi terhadap penelitian tersebut, ya sebaiknya menggunakan hipotesis satu arah. Artinya kita melangkah lebih lanjut dari pada penelitian sebelumnya yang hanya mengetahui bahwa ada pengaruh saja. Penelitian kita akan memberikan manfaat lebih lanjut, yaitu bahwa pengaruh tersebut adalah positif atau negatif.

Jika kita menggunakan analisis regresi linear, maka untuk pengujian dua arah, dan menggunakan signifikansi sebesar 5%, maka signifikansi akan dilihat dari nilai signifikansi output, di bawah 0,05 (hipotesis diterima) atau di atas 0,05 (hipotesis ditolak). Kita tidak perlu melihat berapa nilai t outputnya, apakah positif atau negatif. Akan tetapi, jika kita menggunakan hipotesis satu arah, pada signifikansi 5%, maka nilai signifikansi output harus dibagi dengan dua terlebih dahulu. Misalnya output signifikansi adalah sebesar 0,96, maka hipotesis diterima, karena 0,96 : 2 = 0,48 (<>

Diposkan oleh Konsultan Statistik di 16:29 13 komentar Link ke posting ini

Label:

Partial Least Square

Akhir-akhir ini, para peneliti mulai menemukan beberapa kesulitan ketika menggunakan metode statistik regresi linear, karena ada beberapa kesulitan metode tersebut yaitu ketika menangani model penelitian yang bertingkat dan rumit. Analisis regresi linear (yang biasanya diolah dengan Program SPSS) mengalami kesulitan ketika harus menguji hipotesis dengan variabel terikat lebih dari satu secara serempak, atau menguji hipotesis bolak-balik (recursive). Pengujian hipotesis juga tidak dilakukan serempak dengan pengujian keabsahan indikator yang dipergunakan untuk mengukur variabel konstruk.

Metode yang digunakan untuk melengkapi kebutuhan tersebut adalah dengan metode model persamaan struktural (Structural Equation Modelling/SEM). Dengan program yang sudah dikenal, misalnya Lisrel atau AMOS, peneliti dapat menguji hipotesis dari suatu model penelitian yang relatif rumit. Program tersebut sering disebut dengan Covariance Based Structural Equation Modelling (CBSEM) yang mensyaratkan jumlah sampel yang relatif banyak (sekitar di atas 100). Beberapa penelitian tidak mempunyai sampel sebanyak itu, sehingga dikembangkan model lain yang berbasis variance, yaitu Partial Least Square (PLS).

PLS merupakan metode alternatif penyelesaian model bertingkat yang rumit yang tidak mensyaratkan jumlah sampel yang banyak. Di samping itu ada juga beberapa kelebihan PLS yaitu di antaranya akan mempunyai implikasi yang optimal dalam ketepatan prediksi. Metode PLS merupakan metode analisis yang powerfull karena tidak mengasumsikan skala pengukuran data dan juga dapat dipergunakan untuk mengkonfirmasikan teori. Beberapa program yang dirancang untuk menyelesaikan PLS adalah SmartPLS, PLSGraph, VPLS atau PLS-GUI.

Diposkan oleh Konsultan Statistik di 16:28 2 komentar Link ke posting ini

Label:

Uji Normalitas dengan Skewness dan Kurtosis

Uji normalitas dengan Skewness dan Kurtosis memberikan kelebihan tersendiri, yaitu bahwa akan diketahui grafik normalitas menceng ke kanan atau ke kiri, terlalu datar atau mengumpul di tengah. Oleh karena itu, uji normalitas dengan Skewness dan Kurtosis juga sering disebut dengan ukuran kemencengan data. Pengujian dengan SPSS dilakukan dengan menu Analyze, lalu klik Descriptive Statistics, pilih menu Descriptives. Data yang akan diuji normalitasnya dipindah dari kotak kiri ke kanan, lalu tekan Options. Klik pada Distribution yaitu Skewness dan Kurtosis, tekan Continue, lalu tekan OK.

Pada output akan tampak nilai Statistic Skewness dan Statistic Kurtosis. Lalu hitunglah Zskew dengan persamaan Statistik : (akar(6/N)) dengan N adalah jumlah observasi. Persamaan yang sama juga dipakai untuk menghitung Zkurt (akar(24/N). Misalnya nilai statistic skewness adalah 0,5 dan statistic kurtosis adalah 0,9; dan jumlah data adalah 100, maka nilai Zskew adalah sebesar 2,041 dan nliai Zkurt adalah sebesar 3,674. Nilai tersebut kemudian dibandingkan dengan + 1,96 pada signifikansi 0,05 dan sebesar + 2,58 pada signifikansi 0,01. Jadi tampak bahwa Zskew (2,041 > 1,96 dan Zkurt (3,674) > 1,96.

Syarat data yang normal adalah nilai Zskew dan Zkurt < + 1,96 (signifikansi 0,05). Jadi data di atas dinyatakan tidak normal karena Zkurt tidak memenuhi persyaratan, baik pada signifikansi 0,05 maupun signifikansi 0,01. Kelebihan dari uji Skewness dan Kurtosis adalah bahwa kita dapat mengetahui kemencengan data, di mana data yang normal akan menyerupai bentuk lonceng. Kemungkinan yang ada adalah menceng ke kiri, jika nilai Zskew positif dan di atas 1,96; atau menceng ke kanan jika Zskew bernilai negatif dan di bawah 1,96. Berdasarkan nilai Kurtosis maka dapat ditentukan bahwa data mempunyai nilai puncak yang terlalu tinggi jika Zkurt bernilai positif dan di atas 1,96; jika nilai puncak tidak ada atau data relatif datar maka nilai Zkurt adalah negatif dan di bawah 1,96.

Agak bingung ya??? Memang Skewness dan Kurtosis mempunyai kelebihan, yaitu kita dapat melakukan transformasi data berdasarkan nilai yang kita peroleh, hal yang tidak dapat dilakukan oleh Kolmogorov-Smirnov, tetapi kelemahannya apa?? Anda agak bingung kan?? Nah itu kelemahannya. Tapi kalau anda membaca dengan cermat dan tidak bingung, maka berarti kelemahan Skewness dan Kurtosis boleh dibilang minimal, meskipun sedikit lebih rumit dari pada Kolmogorov-Smirnov.

Diposkan oleh Konsultan Statistik di 16:25 24 komentar Link ke posting ini

Label: ,

Selasa, 17 Maret 2009

Uji Normalitas dengan Kolmogorov Smirnov

Banyak sekali teknik pengujian normalitas suatu distribusi data yang telah dikembangkan oleh para ahli. Kita sebenarnya sangat beruntung karena tidak perlu mencari-cari cara untuk menguji normalitas, dan bahkan saat ini sudah tersedia banyak sekali alat bantu berupa program statistik yang tinggal pakai (bajakan lagi). Berikut adalah salah satu pengujian normalitas dengan menggunakan teknik Kolmogorov Smirnov.

Uji Kolmogorov Smirnov merupakan pengujian normalitas yang banyak dipakai, terutama setelah adanya banyak program statistik yang beredar. Kelebihan dari uji ini adalah sederhana dan tidak menimbulkan perbedaan persepsi di antara satu pengamat dengan pengamat yang lain, yang sering terjadi pada uji normalitas dengan menggunakan grafik.

Konsep dasar dari uji normalitas Kolmogorov Smirnov adalah dengan membandingkan distribusi data (yang akan diuji normalitasnya) dengan distribusi normal baku. Distribusi normal baku adalah data yang telah ditransformasikan ke dalam bentuk Z-Score dan diasumsikan normal. Jadi sebenarnya uji Kolmogorov Smirnov adalah uji beda antara data yang diuji normalitasnya dengan data normal baku. Seperti pada uji beda biasa, jika signifikansi di bawah 0,05 berarti terdapat perbedaan yang signifikan, dan jika signifikansi di atas 0,05 maka tidak terjadi perbedaan yang signifikan. Penerapan pada uji Kolmogorov Smirnov adalah bahwa jika signifikansi di bawah 0,05 berarti data yang akan diuji mempunyai perbedaan yang signifikan dengan data normal baku, berarti data tersebut tidak normal. Sampai di sini dah ngerti lum????

Lebih lanjut, jika signifikansi di atas 0,05 maka berarti tidak terdapat perbedaan yang signifikan antara data yang akan diuji dengan data normal baku, artinya….ya berarti data yang kita uji normal, kan tidak berbeda dengan normal baku.

O, ya ada juga kelemahan dari Uji Kolmogorov Smirnov (mohon maaf kepada Bapak Almarhum Kolmogorov dan Bapak Almarhum Smirnov), yaitu bahwa jika kesimpulan kita memberikan hasil yang tidak normal, maka kita tidak bisa menentukan transformasi seperti apa yang harus kita gunakan untuk normalisasi. Jadi ya kalau tidak normal, gunakan plot grafik untuk melihat menceng ke kanan atau ke kiri, atau menggunakan Skewness dan Kurtosis sehingga dapat ditentukan transformasi seperti apa yang paling tepat dipergunakan.

Uji Normalitas dengan Kolmogorov Smirnov dengan Program SPSS

Pengujian normalitas dengan menggunakan Program SPSS dilakukan dengan menu Analyze, kemudian klik pada Nonparametric Test, lalu klik pada 1-Sample K-S. K-S itu singkatan dari Kolmogorov-Smirnov. Maka akan muncul kotak One-Sample Kolmogorov-Smirnov Test. Data yang akan diuji terletak di kiri dan pindahkan ke kanan dengan tanda panah. Lalu tekan OK saja. Pada output, lihat pada baris paling bawah dan paling kanan yang berisi Asymp.Sig.(2-tailed). Lalu intepretasinya adalah bahwa jika nilainya di atas 0,05 maka distribusi data dinyatakan memenuhi asumsi normalitas, dan jika nilainya di bawah 0,05 maka diinterpretasikan sebagai tidak normal.

Gampang kan???

Diposkan oleh Konsultan Statistik di 19:44 46 komentar Link ke posting ini

Label: ,

Statistik Deskriptif

Statistik deskriptif (descriptive statistic) secara umum merupakan ilmu statistik yang mempelajari tata cara pengumpulan, pencatatan, penyusunan dan penyajian data penelitian dalam bentuk distribusi frekuensi atau grafik dan selanjutnya dilakukan pengukuran nilai-nilai statistiknya seperti rata-rata (mean), median, modus, deviasi standar, varians dan sebagainya.

Data tentang jumlah siswa, mahasiswa, guru, dosen, pegawai, jumlah kelulusan tiap tahun, usia dan lain-lain merupakan contoh data yang dapat kita temui di berbagai tempat. Data tersebut umumnya disajikan dalam bentuk tertentu, misalnya tabel, baik dengan distribusi frekuensi tunggal maupun berkelompok, histogram, poligon, diagram lingkaran dan berbagai bentuk lain. Penyajian berbagai bentuk data tersebut sering dibuat sedemikian rupa sehingga menarik dan komunikatif. Demikian juga penempatannya di dinding kantor atau lembaga yang lain.

Statistik deskriptif juga mencakup perhitungan-perhitungan sederhana, yang biasanya merupakan statistik dasar, yang meliputi perhitungan frekuensi, frekuensi kumulatif, persentase, persentase kumulatif, skor tertinggi, range dan lain-lain. Statistik deskriptif merupakan salah satu ilmu statistik yang jamak dipergunakan dan dapat dengan mudah dimengerti oleh orang awam sekalipun.

Diposkan oleh Konsultan Statistik di 19:43 2 komentar Link ke posting ini

Label:

Tujuh Langkah SEM

Langkah pertama: Pengembangan Model Teoritis

Langkah pertama dalam SEM adalah melalukan identifikasi secara teoretis terhadap permasalahan penelitian. Topik penelitian ditelaah secara mendalam dan hubungan antara variabel-variabel yang akan dihipotesiskan harus didukung oleh justifikasi teori yang kuat. Hal ini dikarenakan SEM adalah untuk mengkonfirmasikan apakah data observasi sesuai dengan teori atau tidak. Jadi SEM tidak dapat digunakan untuk menguji hipotesis kausalitas imaginer. Langkah ini mutlak harus dilakukan dan setiap hubungan yang akan digambarkan dalam langkah lebih lanjut harus mempunyai dukungan teori yang kuat. Berbeda halnya dengan metode lain yaitu Partial Least Square (PLS) yang tidak memerlukan dukungan teori dan dapat digunakan untuk menguji hipotesis kausalitas imaginer.

Langkah kedua: Pengembangan Diagram Alur (Path Diagram)

Langkah kedua adalah menggambarkan kerangka penelitian dalam sebuah diagram alur (path diagram). Kesepakatan yang ada dalam penggambaran diagram alur telah dikembangkan oleh LISREL, sehingga tinggal menggunakannya saja. Beberapa ketentuan yang ada pada penggambaran diagram alur adalah:

1. Anak panah satu arah digunakan untuk melambangkan hubungan kausalitas yang bisanya merupakan permasalahan penelitian dan juga dihipotesiskan

2. Anak panah dua arah digunakan untuk melambangkan korelasi antara dua variabel eksogen dan mungkin juga korelasi antara dua indikator.

3. Bentuk elips, digunakan untuk melambangkan suatu konstruk yang tidak diukur secara langsung, tetapi diukur dengan menggunakan satu atau lebih indikator

4. Bentuk kotak, melambangkan variabel yang diukur langsung (observerb)

5. Huruf e, digunakan untuk melambangkan kesalahan pada masing-masing pengamatan. Nilai ini harus diberikan kepada setiap variabel observerb.

6. Huruf z, digunakan untuk melambangkan kesalahan estimasi. Nilai ini diberikan kepada semua variabel endogen.

7. Variabel eksogen, adalah variabel yang mempengaruhi, biasa disebut variabel independen dalam analisis regresi.

8. Variabel endogen, adalah variabel yang dipengaruhi, biasa disebut variabel dependen dalam analisis regresi.

Langkah Ketiga: Konversi Diagram Alur ke dalam Persamaan Struktural dan Model Pengukuran

Langkah ketiga adalah mengkonversikan diagram alur ke dalam persamaan, baik persamaan struktural maupun persamaan model pengukuran. Sebenarnya langkah ini telah dilakukan secara otomatis oleh program SEM yang tersedia (AMOS atau LISREL). Berikut adalah contoh persamaan umum struktural

Variabel Endogen = Variabel Eksogen + Kesalahan estimasi

Sebagai ilustrasi, model persamaan adalah pengaruh antara motivasi (MT) terhadap kepuasan (KP), dan selanjutnya kepuasan terhadap kinerja (KN). Jadi persamaan strukturalnya adalah:

KP = γ1 M + z1

KN = γ2 KP + z2

Dengan z1 adalah kesalahan estimasi antara motivasi terhadap kepuasan dan z2 adalah kesalahan estimasi antara kepuasan terhadap kinerja; dan γ1 adalah koefisien regresi motivasi ke kepuasan, dan γ2 adalah koefisien regresi kepuasan ke kinerja.

Sebagai ilustrasi, motivasi diukur dengan tiga indikator MT1, MT2 dan MT3, maka persamaan model pengukurannya adalah:

MT1 = β1 MT + e1

MT2 = β2 MT + e2

MT3 = β3 MT + e3

Dengan β1 adalah loading faktor indikator MT1 ke konstruk motivasi, β2 adalah loading faktor MT2 ke konstruk motivasi dan β3 adalah loading faktor indikator MT3 ke konstruk motivasi; e1 adalah kesalahan pengukuran indikator MT1, e2 adalah kesalahan pengukuran indikator MT2 dan e3 adalah kesalahan pengukuran indikator MT3.

Langkah Keempat: Memilih Jenis Matrik Input dan Estimasi Model yang Diusulkan

Jenis matrik input yang dimasukkan adalah data input berupa matrik varian atau kovarian atau matrik korelasi. Data mentah observasi akan diubah secara otomatis oleh program menjadi matriks kovarian atau matriks korelasi. Matriks kovarian mempunyai kelebihan dibandingkan matriks korelasi dalam memberikan validitas perbandingan antara populasi yang berbeda atau sampel yang berbeda. Namun matriks kovarian lebih rumit karena nilai koefisien harus diinterpretasikan atas dasar unit pengukuran konstruk.

Estimasi model yang diusulkan adalah tergantung dari jumlah sampel penelitian, dengan kriteria sebagai berikut: (Ferdinand, 2006:47)

Antara 100 – 200 : Maksimum Likelihood (ML)

Antara 200 – 500 : Maksimum Likelihood atau Generalized Least Square (GLS)

Antara 500 – 2500 : Unweighted Least Square (ULS) atau Scale Free Least Square (SLS)

Di atas 2500 : Asymptotically Distribution Free (ADF)

Rentang di atas hanya merupakan acuan saja dan bukan merupakan ketentuan. Bila ukuran sampel di bawah 500 tetapi asumsi normalitas tidak terpenuhi bisa saja menggunakan ULS atau SLS.

Langkah berikutnya adalah dengan melakukan estimasi model pengukuran dan estimasi struktur persamaan

1. Estimasi Model Pengukuran (Measurement Model).

Juga sering disebut dengan Confirmatory Factor Analysis (CFA). Yaitu dengan menghitung diagram model penelitian dengan memberikan anak panah dua arah antara masing-masing konstruk. Langkah ini adalah untuk melihat apakah matriks kovarian sampel yang diteliti mempunyai perbedaan yang signifikan atau tidak dengan matriks populasi yang diestimasi. Diharapkan tidak terdapat perbedaan yang signifikan sehingga nilai signifikansi pada Chi-Square di atas 0,05.

2. Model Struktur Persamaan (Structure Equation Model).

Juga sering disebut dengan Full model, yaitu melakukan running program dengan model penelitian. Langkah ini untuk melihat berbagai asumsi yang diperlukan, sekaligus melihat apakah perlu dilakukan modifikasi atau tidak dan pada akhirnya adalah menguji hipotesis penelitian.

Langkah Kelima: Kemungkinan Munculnya Masalah Identifikasi

Beberapa masalah identifikasi yang sering muncul sehingga model tidak layak di antaranya adalah sebagai berikut:

1. Standard error yang besar untuk satu atau beberapa koefisien.

Standard error yang besar menunjukkan adanya ketidaklayakan model yang disusun. Standard error yang diharapkan adalah relatif kecil, yaitu di bawah 0,5 atau 0,4 akan tetapi nilai standard error tidak boleh negatif yang akan diuraikan lebih lanjut di bawah pada point 3.

2. Program tidak mampu menghasilkan matriks informasi yang seharusnya disajikan.

Jika program tidak mampu menghasilkan suatu solusi yang unik, maka output tidak akan keluar. Hal ini bisa disebabkan oleh beberapa hal, misalnya sampel terlalu sedikit atau iterasi yang dilakukan tidak konvergen.

3. Munculnya angka-angka yang aneh seperti adanya varians error yang negatif.

Varians error yang diharapkan adalah relatif kecil tetapi tidak boleh negatif. Jika nilainya negatif maka sering disebut heywood case dan model tidak boleh diinterpretasikan dan akan muncul pesan pada output berupa this solution is not admissible.

4. Munculnya korelasi yang sangat tinggi antar koefisien estimasi yang didapat (misal ≥ 0,9).

Gangguan ini juga sering disebut sebagai singularitas dan menjadikan model tidak layak untuk digunakan sebagai sarana untuk mengkonfirmasikan suatu teori yang telah disusun.

Langkah Keenam: Evaluasi Kriteria Goodness of Fit

1. Uji Kesesuaian dan Uji Statistik. Ada beberapa uji kesesuaian statistik, berikut adalah beberapa kriteria yang lazim dipergunakan

a. Likelihood ratio chi-square statistic (χ2). Pada program AMOS, nilai Chi Square dimunculkan dengan perintah \cmin. Nilai yang diharapkan adalah kecil, atau lebih kecil dari pada chi Square pada tabel. Chi-square tabel dapat dilihat pada tabel, dan jika tidak tersedia di tabel (karena tabel biasanya hanya memuat degree of freedom sampai dengan 100 atau 200), maka dapat dihitung dengan Microsoft Excel dengan menu CHINV. Pada menu CHINV, baris probabilitas diisi 0,05 dan deg_freedom diisi jumlah observasi. Maka Microsoft Excel akan menghitung nilai chi-square tabel.

b. Probabilitas. Dimunculkan dengan menu \p. Diharapkan nilai probabilitas lebih dari 0,05 (5%)

c. Root Mean Square Error Approximation (RMSEA). Dimunculkan dengan perintah \rmsea. Nilai yang diharapkan adalah kurang dari 0,08.

d. Goodness of Fit Index (GFI). Dimunculkan dengan perintah \gfi dan nilai yang diharapkan adalah lebih besar dari 0,9.

e. Adjusted Goodness of Fit Index (AGFI). Dimunculkan dengan perintah \agfi dan nilai yang diharapkan adalah lebih besar dari 0,9.

f. The Minimum Sampel Discrepancy Function atau Degree of Freedom (CMIN/DF). Dimunculkan dengan perintah \cmin/df dan nilai yang diharapkan adalah lebih kecil dari 2 atau 3.

g. Tucker Lewis Index (TLI). Dimunculkan dengan perintah \tli dan nilai yang diharapkan adalah lebih besar dari 0,95.

h. Comparative Fit Index (CFI). Dimunculkan dengan perintah \cfi dan nilai yang diharapkan adalah lebih besar dari 0,95.

2. Uji Reliabilitas: Construct Reliability dan Variance extracted. Diperlukan perhitungan manual untuk menghitung construct reliability dan variance extracted. Dengan persamaan construct reliability = (jumlah standard loading)^2/((jumlah standard loading)^2)+(measurement error)) dan variance extracted = ((jumlah (standard loading)^2))/(((jumlah(standard loading)^2))+(measurement error)). Dengan measurement error = 1-((standar loading)^2)). Nilai yang diharapkan untuk construct reliability adalah di atas 0,7 dan variance extracted di atas 0,5.

3. Asumsi-asumsi SEM:

a. Ukuran Sampel. Disarankan lebih dari 100 atau minimal 5 kali jumlah observasi.

b. Normalitas. Normalitas univariate dilihat dengan nilai critical ratio (cr) pada skewness dan kurtosis dengan nilai batas di bawah + 2,58. Normalitas multivariate dilihat pada assessment of normality baris bawah kanan, dan mempunyai nilai batas + 2,58.

c. Outliers. Outliers multivariate dilihat pada mahalanobis distance dan asumsi outliers multivariate terpenuhi jika nilai mahalanobis d-squared tertinggi di bawah nilai kritis. Nilai kritis sebenarnya adalah nilai chi-square pada degree of freedom sebesar jumlah sampel pada taraf signifikansi sebesar 0,001. Nilainya dapat dicari dengan Microsoft Excel seperti telah disampaikan di atas. Univariate outliers dilihat dengan mentransformasikan data observasi ke dalam bentuk Z-score. Transformasi dapat dilakukan dengan Program SPSS dan asumsi terpenuhi jika tidak terdapat observasi yang mempunyai nilai Z-score di atas + 3 atau 4.

d. Multicollinearity. Multikolinearitas dilihat pada determinant matriks kovarians. Nilai yang terlalu kecil menandakan adanya multikolinearitas atau singularitas.

Langkah Ketujuh: Menginterpretasikan Hasil Pengujian dan Modifikasi Model

Peneliti dapat melakukan modifikasi model untuk memperbaiki model yang telah disusun, dengan sebuah catatan penting, yaitu bahwa setiap perubahan model harus didukung oleh justifikasi teori yang kuat. Tidak boleh ada modifikasi model tanpa adanya dukungan teori yang kuat. Modifikasi model dapat dilakukan dengan menambahkan anak panah antar konstruk (juga bisa merupakan penambahan hipotesis) atau penambahan dua anak panah antara indikator, yang juga harus didukung dengan teori yang kuat. Penilaian kelayakan model modifikasi dapat dibandingkan dengan model sebelum adanya modifikasi. Penurunan Chi-Square antara model sebelum modifikasi dengan model setelah modifikasi diharapkan lebih dari 3,84.

Modifikasi dapat dilakukan pada indikator dengan modification indeks terbesar. Artinya bahwa jika kedua indikator tersebut dikorelasikan (dengan dua anak panah) maka akan terjadi penurunan chi-square sebesar modification indeks (MI) sebesar angka tersebut. Sebagai contoh jika pada MI tertulis angka terbesar sebesar 24,5, maka jika kedua indikator tersebut dikorelasikan maka akan terjadi penurunan Chi-square sebesar 24,5 yang signifikan karena lebih besar dari pada 3,84 seperti telah disebutkan di atas.

Pengujian hipotesis juga dapat dilakukan pada langkah ketujuh ini dengan kriteria critical ratio lebih dari 2,58 pada taraf signifikansi 1 persen atau 1,96 untuk signifikansi sebesar 5%. Langkah ini sama dengan pengujian hipotesis pada analisis regresi berganda yang sudah dikenal dengan baik.

Structural Equation Modeling

Structural Equation Modeling (SEM) adalah alat statistik yang dipergunakan untuk menyelesaikan model bertingkat secara serempak yang tidak dapat diselesaikan oleh persamaan regresi linear. SEM dapat juga dianggap sebagai gabungan dari analisis regresi dan analisis faktor. SEM dapat dipergunakan untuk menyelesaikan model persamaan dengan variabel terikat lebih dari satu dan juga pengaruh timbal balik (recursive). SEM berbasis pada analisis covarians sehingga memberikan matriks covarians yang lebih akurat dari pada analisis regresi linear. Program-program statistik yang dapat dipergunakan untuk menyelesaikan SEM misalnya Analysis Moment of Structure (AMOS) atau LISREL.

SEM mampu menyelesaikan model yang rumit yang sering muncul dalam dunia pemasaran atau bidang konsentrasi yang lain. Model yang akan diselesaikan dengan SEM harus mempunyai dasar teori yang kuat, karena SEM tidak dapat digunakan untuk menyelesaikan model kausalitas imaginer. SEM hanyalah untuk mengkonfirmasi apakah observasi sesuai dengan model teoretis yang telah dibentuk berdasarkan telaah teori yang mendalam. Metode lain yang tidak memerlukan telaah teori adalah Partial Least Square (PLS), sebuah metode alternatif yang berdasarkan variance.

Mengapa Menggunakan SEM

Beberapa alasan menggunakan analisis SEM adalah sebagai berikut:

1. Model yang dianalisis bertingkat dan relatif rumit, sehingga akan sangat sulit untuk diselesaikan dengan metode jalur analisis pada regresi linear.

2. Mampu menguji hipotesis-hipotesis yang rumit dan bertingkat secara serempak.

3. Kesalahan (error) pada masing-masing observasi tidak diabaikan tetapi tetap dianalisis, sehingga SEM lebih akurat untuk menganalisis data kuesioner yang melibatkan persepsi.

4. Mampu menganalisis model hubungan timbal balik (recursive) secara serempak, di mana model ini tidak dapat diselesaikan dengan analisis regresi linear secara serempak.

5. Terdapat fasilitas bootstrapping, di mana hal tersebut tidak dapat dilakukan dengan analisis regresi linear.

6. Untuk jumlah sampel yang relatif besar (di atas 2000) terdapat metode asymtot distribution free (ADF) yang tidak memerlukan asumsi normalitas pada data.

7. Peneliti dapat dengan mudah memodifikasi model dengan second order untuk memperbaiki model yang telah disusun agar lebih layak secara statistik.

Tujuh Langkah SEM

Dalam pengujian model SEM terdapat tujuh langkah yang harus ditempuh (Hair dkk, 1998 dalam Ferdinand, 2005), yaitu:

1 Langkah pertama: Pengembangan Model Teoritis.

2 Langkah kedua: Pengembangan Diagram Alur (Path Diagram).

3 Langkah ketiga: Konversi Diagram Alur ke dalam Persamaan Struktural dan Model Pengukuran.

4 Langkah keempat: Memilih Jenis Matrik Input dan Estimasi Model yang Diusulkan.

a. Estimasi Model Pengukuran (Measurement Model).

b. Model Struktur Persamaan (Structure Equation Model).

5 Langkah kelima: Kemungkinan Munculnya Masalah Identifikasi

a. Standard error yang besar untuk satu atau beberapa koefisien.

b. Program tidak mampu menghasilkan matriks informasi yang seharusnya disajikan.

c. Munculnya angka-angka yang aneh seperti adanya varians error yang negatif.

d. Munculnya korelasi yang sangat tinggi antar koefisien estimasi yang didapat (misal ≥ 0,9).

6 Langkah keenam : Evaluasi Kriteria Goodness of Fit

a. Uji Kesesuaian dan Uji Statistik: Likelihood ratio chi-square statistic (χ2), Root Mean Square Error Approximation (RMSEA), Goodness of Fit Index (GFI), Adjusted Goodness of Fit Index (AGFI), The Minimum Sampel Discrepancy Function atau Degree of Freedom (CMIN/DF), Tucker Lewis Index (TLI) dan Comparative Fit Index (CFI).

c. Uji Reliabilitas: Construct Reliability dan Variance extracted.

d. Uji Validitas.

e. Asumsi-asumsi SEM: Ukuran Sampel, Normalitas, Outliers, Multicollinearity dan Singularity.

7 Langkah ketujuh: Menginterpretasikan Hasil Pengujian dan Modifikasi Model.

Hakekat Statistik

Dalam kehidupan sehari-hari, kita sering sekali berhadapan dengan rangkaian angka-angka di mana kita harus membuat suatu keputusan berdasarkan angka-angka tersebut. Seorang ibu rumah tangga, secara tidak sengaja atau sengaja, akan membuat perkiraan tentang berapa kilo beras yang harus disediakan untuk makan keluarganya; juga seorang ayah akan memperkirakan berapa pendapatan minimal yang harus dikeluarkan untuk menghidupi keluarganya. Seorang bujangan akan menghitung berapa kemampuan mencicil sepeda motor yang akan dibelinya secara kredit, dan masih banyak kasus yang lain. Lebih lanjut, seorang manajer akan membuat perkiraan berapa penjualan yang akan diperoleh di bulan mendatang dengan adanya produk baru yang akan diluncurkan.
Contoh-contoh di atas sebenarnya merupakan dasar dari munculnya ilmu statistik. Seorang ibu akan mengingat-ingat berapa kapasitas perut dari suami dan anak-anaknya, lalu membuat kisaran berapa kilo beras yang diperlukan untuk makan dalam satu hari. Nah, sebenarnya ibu tadi menghitung rata-rata, atau dalam bahasa statistik sering disebut dengan istilah ‘mean’. Jika ibu tadi bijaksana, saya yakin semua ibu bijaksana, terutama ibu saya, maka ibu tadi juga tahu bahwa kadang-kadang suaminya makan lahap sekali, dan kadang-kadang juga malas makan sehingga hanya sedikit, atau makan di luar karena urusan kantor. Ibu tadi memperkirakan berapa kisaran, yaitu bahwa dalam sehari beras yang diperlukan kira-kira x kilo gram, dengan kisaran y; atau lebih ilmiah, dikatakan bahwa kisaran kebutuhan beras dalam satu keluarga adalah antara (x-y) sampai dengan (x+y) kilogram. Sebenarnya ibu tadi telah menerapkan ilmu statistik yang bagi mahasiswa sering dianggap momok. Kisaran tadi dapat disebut sebagai varians, atau standar deviasi. Nah.. jika ibu kita yang nota bene pendidikannya di bawah anaknya saja tahu statistik, kok anaknya tidak paham.

Statistik dapat dianggap sebagai produk statistika, di mana statistika adalah cabang dari ilmu matematika yang khusus mengembangkan teknik pengolahan angka. Lebih jelasnya, statistik adalah alat pengolah data angka, sedangkan statistika adalah cabang ilmu yang mengamati dan/atau mengembangkan cara-cara mengolah angka. Masukan dari stastistik adalah angka, dan keluarannya juga angka, tetapi lebih ringkas dan dapat dijadikan dasar untuk mengambil suatu keputusan. Jadi statistik hanyalah sarana dan tidak mempunyai keterkaitan apa pun dengan dunia nyata karena kitalah yang akan membuat interpretasi dan mengambil keputusannya.

Berbagai teknik statistik muncul akibat dari kebutuhan yang ada. Kita kadang-kadang memerlukan deskripsi saja, seperti si ibu tadi, dan digolongkan dalam statistik deskriptif. Di pihak lain, ibu tadi juga dapat memperkirakan berapa kebutuhan beras di masa mendatang, ketika anaknya mulai dewasa dan makannya tambah banyak, atau menantunya numpang tinggal di rumah. Atau ibu tadi memberikan pelajaran tentang teknik memperkirakan beras kepada putirnya yang telah menikah atau tetangganya. Perkiraan tadi akan memerlukan statistik inferensial. Dan memang, statistik digolongkan ke dalam dua kelompok besar, yaitu statistik deskriptif dan statistik inferensial. Statistik deskriptif adalah teknik statistik yang memberikan informasi hanya mengenai data yang dimiliki dan dipergunakan untuk menyajikan dan menganalisis data agar lebih bermakna dan komunikatif disertai perhitungan-perhitungan yang bersifat memperjelas atau karakteristik data yang bersangkutan. Statistik inferensial adalah statistik yang berkaitan dengan analisis data (sampel) dan kemudian dilakukan penyimpulan (inferensi) yang digeneralisasikan kepada seluruh subjek tempat data itu diambil (populasi).

Jadi, kesimpulannya, jangan takut dengan statistik. Ibu kita kalau tidak menggunakan statistik maka kita akan sering kelaparan, atau kehabisan beras, dan mungkin bapak kita tidak bisa punya motor atau rumah. Ok???? Dan jika anda, yang MAHASISWA ditanya berapa uang yang anda habiskan dalam sebulan, ternyata tidak bisa menjawab.. Waduhhhh… itu benar-benar payah….karena anda tidak tahu konsep rata-rata atau mean. Pedagang pasar yang buta huruf aja tahu konsep rata-rata, varians, standar deviasi, bahkan memperkirakan jumlah penjualan berdasarkan hari-hari tertentu!!!! Itu kan analisis regresi dengan data time series……..

Diposkan oleh Konsultan Statistik di 17:49 0 komentar Link ke posting ini

Label:

Uji Heteroskedastisitas dengan Glejser

Pengujian heteroskedastisitas dengan metode grafik lazim dipergunakan meskipun menimbulkan bias, karena pengamatan antara satu pengamat dengan pengamat lain bisa menimbulkan perbedaan persepsi. Oleh karena itu, penggunaan uji statistik diharapkan menghilangkan unsur bias tersebut. Salah satu uji statistik yang lazim dipergunakan adalah uji Glejser (di samping uji yang lain, misalnya uji Park, atau uji White).

Uji Glejser dilakukan dengan meregresikan variabel-variabel bebas terhadap nilai absolut residualnya (Gujarati, 2003). Sebagai pengertian dasar, residual adalah selisih antara nilai observasi dengan nilai prediksi; dan absolut adalah nilai mutlaknya. Sebagai ilustrasi, berikut adalah regresi antara kecerdasan emosional (KE) dan kecerdasan spiritual (KS) terhadap kinerja auditor (KA)
KA = a + b1 KE + b2 KS
Langkah pertama adalah meregresikan KE dan KS (sebagai variabel independen) terhadap KA (sebagai variabel dependen). Kemudian klik menu Save pada menu residual klik unstandardized. Klik OK sehingga akan muncul nilai res_1 pada tabulasi data SPSS. Angka yang terdapat pada kolom res_1 pada tabulasi SPSS merupakan nilai residual yaitu selisih antara KA hasil observasi (kuesioner) dengan KA hasil prediksi pada persamaan di atas.
Langkah kedua adalah menghitung nilai absolut dari residual di atas. Jika dilakukan dengan maka dengan menggunakan menu Transform –> compute. Pada baris Target variable isikan abs_res yang berarti absolut residual. Kemudian klik pada function ABS(numexpr) sehingga pada baris numeric expression akan keluar ABS(?). Isikan res_1 pada (?) lalu tekan OK, sehingga pada kolom sebelah res_1 akan keluar abs_res yang berisi nilai absolut residual.

Selanjutnya adalah meregresikan KE dan KS dengan absolut residual, dan interpretasi heteroskedastisitas dilakukan dengan melihat signifikansi antara KE dan KS secara parsial terhadap abs_res. Gangguan heteroskedastisitas terjadi jika terdapat pengaruh yang signifikan antara KE dan KS (salah satu atau keduanya) terhadap absolut residualnya.

Bahan bacaan: Gujarati, D., 2003. Basic Econometric. Mc-Grawhill, New York.

Diposkan oleh Konsultan Statistik di 17:48 37 komentar Link ke posting ini

Label:

Senin, 16 Maret 2009

Validitas dan Reliabilitas

Validitas

Secara umum uji validitas adalah untuk melihat apakah item pertanyaan yang dipergunakan mampu mengukur apa yang ingin diukur. Terdapat berbagai macam konsep tentang validitas, dan di sini hanya akan dibahas validitas yang jamak dipergunakan dalam berbagai penelitian ekonomi. Suatu item pertanyaan dalam suatu kuesioner dipergunakan untuk mengukur suatu konstruk (variabel) yang akan diteliti. Sebagai contoh: besarnya gaji valid dipergunakan untuk mengukur kekayaan seseorang; atau jumlah anak tidak valid dipergunakan untuk mengukur kekayaan seseorang. Artinya gaji berkorelasi dengan tingkat kekayaan seseorang, tetapi jumlah anak tidak berkorelasi dengan tingkat kekayaan seseorang.

Beberapa alat analisis yang sering dipergunakan untuk melakukan uji validitas adalah:

1. Korelasi Product Moment

Item butir dinyatakan valid jika mempunyai korelasi dengan skor total (r hitung) di atas r tabel. Perhitungan dengan SPSS menggunakan Analyze –> correlate –> bivariate, pilih Pearson. Pindahkan data jawaban pada masing-masing butir dan skor total dari kiri ke kanan. Hasilnya pada output, lihat pada kolom paling kanan.

2. Corrected Item to Total Correlation

Adalah dengan mengkoreksi nilai r hitung karena adanya spurious overlap. Perhitungan dengan SPSS menggunakan Analyze –> Scale –> Reliability Analysis, pindahkan jawaban responden pada masing-masing butir (tanpa skor total) dari kiri ke kanan –> Pilih Statistic è Klik pada Scale if item deleted –> OK. Nilai yang dipergunakan pada kolom Corrected item-total correlation.

3. Analisis Faktor

Item yang valid akan mengelompok pada konstruk yang diukur. Analisis dengan SPSS menggunakan Analyze è Data reduction –> Factor Analysis –> masukan semua jawaban responden. Item pertanyaan pada suatu konstruk yang tidak mengelompok pada konstruk tersebut dinyatakan tidak valid.

Reliabilitas

Uji reliabilitas adalah untuk melihat apakah rangkaian kuesioner yang dipergunakan untuk mengukur suatu konstruk tidak mempunyai kecenderungan tertentu. Nilai yang lazim dipakai adalah 0,6. Perhitungan dengan SPSS sama dengan perhitungan validitas dengan Corrected Item to Total Correlation. Nilai yang dilihat adalah Alpha, pada bagian kiri bawah.

Pertanyaan-pertanyaan yang sering muncul
1. Bagaimana perlakuan terhadap butir pertanyaan yang tidak valid?

Jawab: Butir yang tidak valid berarti tidak mampu mengukur suatu konstruk yang akan diukur, sehingga sebaiknya dikeluarkan dari model penelitian.

2. Butir-butir pertanyaan sudah valid semua, tetapi mengapa tidak reliabel?

Jawab: Meskipun ada kecenderungan bahwa jika semua butir sudah valid akan reliabel, akan tetapi hal tersebut tidak merupakan suatu jaminan. Upaya yang dapat dilakukan agar menjadi reliabel adalah dengan menggunakan pengujian reliabilitas yang lain, atau memodifikasi indikator yang dipergunakan.

3. Kuesioner sudah valid dan reliabel, tetapi mengapa hipotesis tidak diterima?

Jawab: Tidak ada hubungan antara uji validitas dan reliabilitas dengan penerimaan hipotesis. Uji validitas dan reliabilitas hanya untuk melihat apakah alat ukur yang dipergunakan (kuesioner) sudah layak dipergunakan atau belum.

4. Metode pengujian mana yang paling tepat?

Jawab: Tidak ada ketentuan yang pasti dan tergantung dari model yang dipergunakan dalam penelitian.

5. Bolehkan pengujian Alpha Cronbach dipergunakan untuk kuesioner dengan jawaban benar dan salah?

Jawab: Tidak boleh. Alpha Cronbach tidak dapat digunakan untuk menguji reliabilitas kuesioner dengan skala nominal (benar/salah)

6. Berapakah jumlah indikator yang ideal dalam mengukur suatu konstruk/variabel?

Jawab: Tidak ada ketentuan yang pasti. Semakin banyak akan semakin baik, akan tetapi memerlukan tenaga yang lebih besar dan mungkin tidak sebanding dengan manfaat yang diperoleh. Untuk model dengan SEM, disarankan minimal 3 indikator setiap konstruk (tetapi bukan merupakan suatu keharusan)

Untuk pertanyaan yang lain, silahkan kirim melalui komentar. Terima kasih.

Diposkan oleh Konsultan Statistik di 23:25 36 komentar Link ke posting ini

Label:

Populasi dan Sampel

Populasi

Secara ringkas, populasi penelitian adalah keseluruhan objek penelitian, yaitu a set (or collection) of all elements possessing one or more attributes interests. Jadi setiap anggota populasi harus mempunyai karakteristik tertentu yang sama yang akan diteliti. Contoh populasi penelitian adalah seluruh perusahaan yang terdaftar di Bursa Efek Indonesia pada tahun 2007, atau seluruh karyawan tetap pada perusahaan X, seluruh siswa sekolah X tahun ajaran 2007, atau seluruh pengguna sabun X di Kota Y dan sebagainya.
Hasil penelitian diharapkan dapat mewakili keseluruhan populasi penelitian yang telah ditetapkan di awal penelitian. Berbagai asumsi harus dipenuhi agar hasil penelitian dapat digeneralisasikan terhadap keseluruhan populasi penelitian. Beberapa asumsi statistik yang diperlukan misalnya normalitas data atau uji non response bias.
Untuk populasi dengan jumlah anggota populasi yang besar, maka dapat dilakukan penelitian terhadap sebagian dari anggota populasi tersebut, tetapi masih mempunyai ciri atau karakteristik yang mampu mewakili keseluruhan populasi penelitian tersebut. Sebagian anggota populasi tersebut sering disebut sampel yang dipilih atau ditentukan dengan berbagai metode ilmiah yang ada.

Sampel

Sampel adalah sebagian (cuplikan) dari populasi yang masih mempunyai ciri dan karakteristik yang sama dengan populasi dan mampu mewakili keseluruhan populasi penelitian. Sampel dipergunakan ketika jumlah seluruh anggota populasi terlalu banyak sehingga tidak memungkinkan untuk melakukan penelitian terhadap populasi secara keseluruhan, misalnya populasi penelitian adalah masyarakat pada suatu kota tertentu. Sampel juga digunakan ketika jumlah populasi secara keseluruhan tidak dapat ditentukan secara pasti, misalnya populasi pengguna produk tertentu pada suatu kota.
Persyaratan utama adalah bahwa sampel harus mampu mewakili populasi secara keseluruhan. Oleh karena itu, penentuan jumlah sampel dan pengambilan sampel penelitian harus ditentukan secara sistematis agar benar-benar mampu mewakili populasi secara keseluruhan. Secara garis besar, metode penentuan jumlah sampel terdiri dari dua ciri, yaitu metode acak (random sampling) dan tidak acak (non random sampling). Metode acak adalah memberikan kesempatan kepada seluruh populasi penelitian untuk menjadi sampel penelitian tanpa melihat struktur atau karakteristik tertentu. Metode non random sampling dilakukan dengan memberikan kesempatan kepada populasi dengan ciri atau karakteristik tertentu untuk menjadi sampel penelitian, di mana ciri dan karakteristik tersebut harus dikaitkan dengan tujuan penelitian.
Sebagai ilustrasi penelitian dengan tujuan untuk mengetahui pengaruh dari beberapa rasio keuangan terhadap harga saham. Maka beberapa kriteria yang dapat diambil untuk penentuan non random sampling misalnya: Perusahaan tidak mengeluarkan kebijakan selama periode penelitian. Kriteria ini diambil karena kebijakan perusahaan dapat secara langsung merubah harga saham tanpa melihat ada atau tidaknya pengaruh dari rasio keuangan. Kebijakan tersebut misalnya stock split, merger dan akuisisi, right issue atau kebijakan yang lain. Selain itu masih dapat diberikan kriteria-kriteria yang lain yang mendukung pelaksanaan penelitian, misalnya ketersediaan data.

Diposkan oleh Konsultan Statistik di 23:24 12 komentar Link ke posting ini

Label:

Uji Asumsi Klasik

Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis regresi linear berganda yang berbasis ordinary least square (OLS). Jadi analisis regresi yang tidak berdasarkan OLS tidak memerlukan persyaratan asumsi klasik, misalnya regresi logistik atau regresi ordinal. Demikian juga tidak semua uji asumsi klasik harus dilakukan pada analisis regresi linear, misalnya uji multikolinearitas tidak dapat dipergunakan pada analisis regresi linear sederhana dan uji autokorelasi tidak perlu diterapkan pada data cross sectional.
Uji asumsi klasik juga tidak perlu dilakukan untuk analisis regresi linear yang bertujuan untuk menghitung nilai pada variabel tertentu. Misalnya nilai return saham yang dihitung dengan market model, atau market adjusted model. Perhitungan nilai return yang diharapkan dilakukan dengan persamaan regresi, tetapi tidak perlu diuji asumsi klasik.
Setidaknya ada lima uji asumsi klasik, yaitu uji multikolinearitas, uji heteroskedastisitas, uji normalitas, uji autokorelasi dan uji linearitas. Tidak ada ketentuan yang pasti tentang urutan uji mana dulu yang harus dipenuhi. Analisis dapat dilakukan tergantung pada data yang ada. Sebagai contoh, dilakukan analisis terhadap semua uji asumsi klasik, lalu dilihat mana yang tidak memenuhi persyaratan. Kemudian dilakukan perbaikan pada uji tersebut, dan setelah memenuhi persyaratan, dilakukan pengujian pada uji yang lain.

1. Uji Normalitas

Uji normalitas adalah untuk melihat apakah nilai residual terdistribusi normal atau tidak. Model regresi yang baik adalah memiliki nilai residual yang terdistribusi normal. Jadi uji normalitas bukan dilakukan pada masing-masing variabel tetapi pada nilai residualnya. Sering terjadi kesalahan yang jamak yaitu bahwa uji normalitas dilakukan pada masing-masing variabel. Hal ini tidak dilarang tetapi model regresi memerlukan normalitas pada nilai residualnya bukan pada masing-masing variabel penelitian.
Pengertian normal secara sederhana dapat dianalogikan dengan sebuah kelas. Dalam kelas siswa yang bodoh sekali dan pandai sekali jumlahnya hanya sedikit dan sebagian besar berada pada kategori sedang atau rata-rata. Jika kelas tersebut bodoh semua maka tidak normal, atau sekolah luar biasa. Dan sebaliknya jika suatu kelas banyak yang pandai maka kelas tersebut tidak normal atau merupakan kelas unggulan. Pengamatan data yang normal akan memberikan nilai ekstrim rendah dan ekstrim tinggi yang sedikit dan kebanyakan mengumpul di tengah. Demikian juga nilai rata-rata, modus dan median relatif dekat.
Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji Chi Square, Skewness dan Kurtosis atau uji Kolmogorov Smirnov. Tidak ada metode yang paling baik atau paling tepat. Tipsnya adalah bahwa pengujian dengan metode grafik sering menimbulkan perbedaan persepsi di antara beberapa pengamat, sehingga penggunaan uji normalitas dengan uji statistik bebas dari keragu-raguan, meskipun tidak ada jaminan bahwa pengujian dengan uji statistik lebih baik dari pada pengujian dengan metode grafik.
Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya signifikansi Kolmogorov Smirnov sebesar 0,049) maka dapat dicoba dengan metode lain yang mungkin memberikan justifikasi normal. Tetapi jika jauh dari nilai normal, maka dapat dilakukan beberapa langkah yaitu: melakukan transformasi data, melakukan trimming data outliers atau menambah data observasi. Transformasi dapat dilakukan ke dalam bentuk Logaritma natural, akar kuadrat, inverse, atau bentuk yang lain tergantung dari bentuk kurva normalnya, apakah condong ke kiri, ke kanan, mengumpul di tengah atau menyebar ke samping kanan dan kiri.

2. Uji Multikolinearitas

Uji multikolinearitas adalah untuk melihat ada atau tidaknya korelasi yang tinggi antara variabel-variabel bebas dalam suatu model regresi linear berganda. Jika ada korelasi yang tinggi di antara variabel-variabel bebasnya, maka hubungan antara variabel bebas terhadap variabel terikatnya menjadi terganggu. Sebagai ilustrasi, adalah model regresi dengan variabel bebasnya motivasi, kepemimpinan dan kepuasan kerja dengan variabel terikatnya adalah kinerja. Logika sederhananya adalah bahwa model tersebut untuk mencari pengaruh antara motivasi, kepemimpinan dan kepuasan kerja terhadap kinerja. Jadi tidak boleh ada korelasi yang tinggi antara motivasi dengan kepemimpinan, motivasi dengan kepuasan kerja atau antara kepemimpinan dengan kepuasan kerja.
Alat statistik yang sering dipergunakan untuk menguji gangguan multikolinearitas adalah dengan variance inflation factor (VIF), korelasi pearson antara variabel-variabel bebas, atau dengan melihat eigenvalues dan condition index (CI).
Beberapa alternatif cara untuk mengatasi masalah multikolinearitas adalah sebagai berikut:
1. Mengganti atau mengeluarkan variabel yang mempunyai korelasi yang tinggi.
2. Menambah jumlah observasi.

3. Mentransformasikan data ke dalam bentuk lain, misalnya logaritma natural, akar kuadrat atau bentuk first difference delta.

4. Dalam tingkat lanjut dapat digunakan metode regresi bayessian yang masih jarang sekali digunakan.

3. Uji Heteroskedastisitas

Uji heteroskedastisitas adalah untuk melihat apakah terdapat ketidaksamaan varians dari residual satu ke pengamatan ke pengamatan yang lain. Model regresi yang memenuhi persyaratan adalah di mana terdapat kesamaan varians dari residual satu pengamatan ke pengamatan yang lain tetap atau disebut homoskedastisitas.
Deteksi heteroskedastisitas dapat dilakukan dengan metode scatter plot dengan memplotkan nilai ZPRED (nilai prediksi) dengan SRESID (nilai residualnya). Model yang baik didapatkan jika tidak terdapat pola tertentu pada grafik, seperti mengumpul di tengah, menyempit kemudian melebar atau sebaliknya melebar kemudian menyempit. Uji statistik yang dapat digunakan adalah uji Glejser, uji Park atau uji White.

Beberapa alternatif solusi jika model menyalahi asumsi heteroskedastisitas adalah dengan mentransformasikan ke dalam bentuk logaritma, yang hanya dapat dilakukan jika semua data bernilai positif. Atau dapat juga dilakukan dengan membagi semua variabel dengan variabel yang mengalami gangguan heteroskedastisitas.

4. Uji Autokorelasi

Uji autokorelasi adalah untuk melihat apakah terjadi korelasi antara suatu periode t dengan periode sebelumnya (t -1). Secara sederhana adalah bahwa analisis regresi adalah untuk melihat pengaruh antara variabel bebas terhadap variabel terikat, jadi tidak boleh ada korelasi antara observasi dengan data observasi sebelumnya. Sebagai contoh adalah pengaruh antara tingkat inflasi bulanan terhadap nilai tukar rupiah terhadap dollar. Data tingkat inflasi pada bulan tertentu, katakanlah bulan Februari, akan dipengaruhi oleh tingkat inflasi bulan Januari. Berarti terdapat gangguan autokorelasi pada model tersebut. Contoh lain, pengeluaran rutin dalam suatu rumah tangga. Ketika pada bulan Januari suatu keluarga mengeluarkan belanja bulanan yang relatif tinggi, maka tanpa ada pengaruh dari apapun, pengeluaran pada bulan Februari akan rendah.
Uji autokorelasi hanya dilakukan pada data time series (runtut waktu) dan tidak perlu dilakukan pada data cross section seperti pada kuesioner di mana pengukuran semua variabel dilakukan secara serempak pada saat yang bersamaan. Model regresi pada penelitian di Bursa Efek Indonesia di mana periodenya lebih dari satu tahun biasanya memerlukan uji autokorelasi.
Beberapa uji statistik yang sering dipergunakan adalah uji Durbin-Watson, uji dengan Run Test dan jika data observasi di atas 100 data sebaiknya menggunakan uji Lagrange Multiplier. Beberapa cara untuk menanggulangi masalah autokorelasi adalah dengan mentransformasikan data atau bisa juga dengan mengubah model regresi ke dalam bentuk persamaan beda umum (generalized difference equation). Selain itu juga dapat dilakukan dengan memasukkan variabel lag dari variabel terikatnya menjadi salah satu variabel bebas, sehingga data observasi menjadi berkurang 1.

5. Uji Linearitas

Uji linearitas dipergunakan untuk melihat apakah model yang dibangun mempunyai hubungan linear atau tidak. Uji ini jarang digunakan pada berbagai penelitian, karena biasanya model dibentuk berdasarkan telaah teoretis bahwa hubungan antara variabel bebas dengan variabel terikatnya adalah linear. Hubungan antar variabel yang secara teori bukan merupakan hubungan linear sebenarnya sudah tidak dapat dianalisis dengan regresi linear, misalnya masalah elastisitas.
Jika ada hubungan antara dua variabel yang belum diketahui apakah linear atau tidak, uji linearitas tidak dapat digunakan untuk memberikan adjustment bahwa hubungan tersebut bersifat linear atau tidak. Uji linearitas digunakan untuk mengkonfirmasikan apakah sifat linear antara dua variabel yang diidentifikasikan secara teori sesuai atau tidak dengan hasil observasi yang ada. Uji linearitas dapat menggunakan uji Durbin-Watson, Ramsey Test atau uji Lagrange Multiplier.

Kuis Normalitas

Berbagai metode telah dikembangkan oleh para ahli untuk mendeteksi normal atau tidaknya suatu distribusi data. Berikut adalah tampilan histogram data dan normal P Plot dari suatu distribusi data yang terdiri dari 93 pengamatan

Sedangkan diagram P Plot adalah sebagai berikut:

Menurut anda distribusi data itu normal apa tidak? O ya, distribusi data dalam format SPSS dapat anda download di sini. Berikan jawaban anda dengan menggunakan polling pada samping kiri blog ini.

Diposkan oleh Konsultan Statistik di 16:21 2 komentar Link ke posting ini

Label:

Regresi Logistik

Regresi logistik (logistic regression) sebenarnya sama dengan analisis regresi berganda, hanya variabel terikatnya merupakan dummy variabel (0 dan 1). Sebagai contoh, pengaruh beberapa rasio keuangan terhadap keterlambatan penyampaian laporan keuangan. Maka variabel terikatnya adalah 0 jika terlambat dan 1 jika tidak terlambat (tepat). Regresi logistik tidak memerlukan asumsi normalitas dan asumsi klasik yang lain, meskipun screening data outliers tetap dapat dilakukan.

Interpretasi regresi logistik menggunakan odd ratio atau kemungkinan. Sebagai contoh, jika rasio keuangan ROA meningkat sebesar 1% maka kemungkinan ketepatan menyampaikan laporan keuangan meningkat sebesar 1,05 kali. Berarti semakin tinggi ROA kemungkinan tepat semakin tinggi. Atau jika rasio keuangan DER meningkat sebesar 2% maka kemungkinan ketepatan penyampaian laporan keuangan meningkat sebesar 0,98 kali atau bisa dikatakan menurun karena lebih kecil dari 1 yang berarti kemungkinan terlambat semakin tinggi.

Berikut adalah simulasi aplikasi regresi logistik (logistic regression) dengan SPSS Versi. 11.5. Contoh tabulasi data dengan 84 sampel bisa di download di sini. O ya, data itu hanya contoh saja lho. Tampilannya pada SPSS Versi 11.5 kurang lebih (banyak kurangnya) seperti ini

Simulasi adalah untuk melihat pengaruh antara variabel profitabilitas, kompleksitas perusahaan, opini auditor, likuiditas dan ukuran perusahaan terhadap ketepatan penyampaian laporan keuangan tahunan perusahaan. Profitabilitas diukur dengan ROA; kompleksitas diukur dengan 1 jika mempunyai anak perusahaan dan 0 jika perusahaan tidak mempunyai anak perusahaan; opini auditor diukur dengan 1 jika mendapatkan opini wajar tanpa pengecualian dan 0 untuk opini yang lain; likuiditas diukur dengan Current Ratio; dan kompleksitas diukur dengan logaritma natural market value. Nah variabel terikatnya adalah ketepatan penyampaian laporan keuangan dengan kode 1 untuk perusahaan yang tepat waktu dan 0 untuk perusahaan yang terlambat.

Klik menu Analyze, pilih Binary Logistic, seperti ini:

Jika anda benar, maka akan keluar menu box untuk regresi logistik. Masukkan variabel ketepatan ke dalam box dependend, dan masukkan variabel bebas ke dalam box covariate. Lalu klik pada options, sehingga akan keluar box seperti ini:

Beri tanda centang seperti pada gambar di atas lalu klik continue sehingga akan dikembalikan pada menu box logistik dan tekan OK. Program akan melakukan perhitungan secara otomatis, dan hasil selengkapnya dapat anda bandingkan dengan data yang telah anda download

Interpretasinya adalah sebagai berikut:

Pertama. Melihat kelayakan model dengan menginterpretasikan output berikut ini:

Nilai -2 Log Likelihood adalah sebesar 96,607 yang akan dibandingkan dengan nilai Chi Square pada taraf signifikansi 0,05 dengan df sebesar N-1 dengan N adalah jumlah sampel, berarti 84 – 1 = 83. Dari tabel Chi Square, anda nyari tabel sendiri ya, diperoleh nilainya adalah 100,744. Jadi -2 Log Likelihood < 6 =” 84″ 6 =” 78″>

Nah, sekarang gunakan logika ini. Jika konstanta saja dimasukkan tidak layak, semua variabel bebas dimasukkan juga tidak layak, tapi kan ada penurunan -2 Log Likelihood. Yup penurunannya adalah sebesar 96,607 – 84,877 = 11,73. Atau kalau males ngitung manual, Output SPSS juga telah memberikan nilai itu yaitu sebagai berikut:

Nah kelihatan kan kalau output selisihnya adalah sebesar 11,729 dan mempunyai signifikansi 0,039 <>

Kalau masih kurang puas, bisa dilihat nilai Hosmer and Lemeshow Test. Tapi tunggul dulu, ini agak berbeda. Hosmer dan Lemeshow Test berbeda dengan uji kelayakan di atas. Ini adalah untuk melihat apakah data empiris cocok atau tidak dengan model atau dengan kata lain diharapkan tidak ada perbedaan antara data empiris dengan model. Nah kalau begitu model akan dinyatakan layak jika signifikansi di atas 0,05 atau -2 Log Likelihood di bawah Chi Square Tabel. Hati-hati, ini berkebalikan dengan uji yang lain sebelumnya. Jangan bingung lho.. nah tampak kan bahwa nilai Hosmer and Lemeshow Test adalah sebesar 9,778 dengan signifikansi 0,281 > 0,05. Berarti fit kan???

Kesimpulannya adalah bahwa model dinyatakan layak dan boleh diinterpretasikan!!!

Gambar di atas memberikan nilai Nagelkerke R Square sebesar 0,191 yang berarti bahwa kelima variabel bebas mampu menjelaskan varians ketepatan penyampaian laporan keuangan sebesar 19,1% dan sisanya yaitu sebesar 80,9% dijelaskan oleh faktor lain.

Pengujian hipotesis penelitian dilihat dengan output berikut ini:

Lihat aja signifikansinya, yang di bawah 0,10 (10%) berarti signifikan berpengaruh atau hipotesis diterima. Pembahasannya, ya silahkan dikaitkan dengan teori yang dikembangkan di awal dan ……….. terserah anda…..

Silahkan download materi di atas di sini

dan jika memerlukan file data contoh silahkan download di sini

Diposkan oleh Konsultan Statistik di 16:04 38 komentar Link ke posting ini

Label:

Sabtu, 14 Maret 2009

Analisis Faktor

Analisis faktor adalah alat analisis statistik yang dipergunakan untuk mereduksi faktor-faktor yang mempengaruhi suatu variabel menjadi beberapa set indikator saja, tanpa kehilangan informasi yang berarti. Sebagai ilustrasi, terdapat 50 indikator yang diidentifikasi mempunyai pengaruh terhadap keputusan pembelian konsumen. Dengan analisis faktor, ke-50 indikator tersebut akan dikelompokkan menjadi beberapa sub set indikator yang sejenis. Masing-masing kelompok sub set tersebut kemudian diberi nama sesuai dengan indikator yang mengelompok. Pengelompokan berdasarkan kedekatan korelasi antar masing-masing indikator dan penentuan banyaknya sub set berdasarkan nilai eigen values, yang biasanya diambil di atas 1.
Analisis faktor digunakan untuk penelitian awal di mana faktor-faktor yang mempengaruhi suatu variabel belum diidentifikasikan secara baik (explanatory research). Selain itu, analisis faktor juga dapat digunakan untuk menguji validitas suatu rangkaian kuesioner. Sebagai gambaran, jika suatu indikator tidak mengelompok kepada variabelnya, tetapi malah mengelompok ke variabel yang lain, berarti indikator tersebut tidak valid.

Berikut akan kami sampaikan simulasi analisis faktor yang digunakan untuk mengelompokkan beberapa indikator menjadi beberapa kelompok tertentu, tanpa kehilangan informasi yang berarti.

Data yang digunakan adalah hasil kuesioner yang terdiri dari 11 butir pertanyaan (q1 sampai dengan q11). Tabulasi data dalam bentuk SPSS Versi 11.5 dapat Anda Download di sini. Kita ingin mengelompokkan 11 butir tersebut menjadi beberapa kelompok, sehingga memudahkan untuk analisis selanjutnya. Dari tabulasi data SPSS, pilih menu Analyze, sorotkan mouse pada reduction data, dan klik pada Factor seperti pada contoh berikut:


Jika anda benar maka akan diarahkan ke menu analisis faktor seperti ini. Pindahkan q1 sampai q11 dari box kiri ke kotak variables


Klik pada menu descriptive di bagian kiri bawah, sehingga akan diarahkan ke box menu sebagai berikut:

Berikan tick mark (centang) seperti gambar, lalu tekan continue, sehingga anda akan diarahkan kembali ke box analisis faktor. Tekan Extraction di samping Descriptive, sehingga akan diarahkan ke menu box sebagai berikut


Lalu berikan tanda centang seperti pada gambar, tekan continue, maka akan kembali ke menu analisis faktor. Tekan rotation di samping extraction, sehingga akan diarahkan ke menu sebagai berikut:


Berikan tanda centang seperti gambar, lalu tekan continue. He he diulang-ulang ya. Ya emang. Nah abis tekan continue, maka tekan OK pada box menu analisis faktor. Dan jreng…..akan keluar output yang siap untuk diinterpretasikan.

Yang pertama adalah nilai KMO yaitu sebesar 0,796. Nilai yang diharapkan adalah di atas 0,5. Nah karena nilainya 0,796 > 0,05 maka analisis faktor dapat digunakan pada data yang kita punyai. Kalau nilainya di bawah 0,05 kayaknya jangan digunakan deh analisis faktor karena tidak layak. Yup???
Output di bawahnya adalah communalities, yang diharapkan mempunyai nilai di atas 0,4 dan di situ tampak bahwa semua pertanyaan mempunyai nilai di atas 0,4 (minimal adalah 0,411 untuk q1).

Selanjutnya kita lihat output yang berikut

Dari 11 component (lihat tabel paling kiri) ternyata yang mempunyai nilai initial eigenvalues di atas 1 hanya ada 2 component. Artinya, bahwa 11 butir pertanyaan tersebut dapat dikelompokkan menjadi dua kelompok tanpa kehilangan informasi yang berarti. Component 1 mempunyai nilai 5,630 dan mampu menjelaskan varians sebesar 51,180% dan component 2 mempunyai nilai 1,879 dan mampu menjelaskan varians sebesar 17,084%. Dengan demikian kedua component tersebut mampu menjelaskan varians sebesar 68,264% atau kita kehilangan informasi sebesar 31,736% saja. Yach lumayan dech… ha ha….

Terus kalau kita pengin melihat butir mana yang masuk kelompok 1 dan butir mana yang masuk kelompok 2 kita lihat output berikut:

Dari component matrik kita bisa melihat bahwa q1 ikut component 1 karena mempunyai loading factor sebesar 0,617 yang lebih besar dari pada loading factor ke component 2 yaitu sebesar 0,174. Yup… dengan cara yang sama kita bisa mengelompokkan kelompok 1 selainn q1 adalah q2, q3, q5, q6, q7, q8, q9 dan q10. Sedangkan yang masuk component 2 adalah q4 dan q11. he he…. Eit lihat yang q 11….loading factor untuk component 1 adalah 0,436 dan untuk component 2 adalah -0,648. Bisa dimengerti kok dianggap masuk component 2 bukannya component 1. Yup kita ambil nilai mutlaknya ya. Jadi bukan hitung-hitungan anak SD yang menyatakan bahwa negatif lebih kecil dari positif he he….

Eit tunggu dul…. q 11 memang component 2 tapi mempunyai nilai negatif sehingga akan membingungkan interpretasinya. Jadi ya kita lakukan rotasi dan hasilnya sebagai berikut:

Nah kan jadi lebih jelas. Butir q1 sampai q5 masuk component 2 dan butir q5 sampai q 11 masuk component 1. Ntar interpretasi variance explained juga dilihat yang rotation.

Nah, setelah itu anda kaitkan dengan teori yang ada. Butir q1 sampai q5 anda beri nama sesuai dengan isi dari pertanyaan dan merupakan suatu konstruk yang berbeda dengan konstruk yang terdiri dari q6 sampai q 11.

OK… mudah-mudahan bisa dicopy dengan baik.

Diposkan oleh Konsultan Statistik di 23:15 4 komentar Link ke posting ini

Label:

Jumat, 13 Maret 2009

Regresi Linear dengan Variabel Intervening

Variabel intervening adalah variabel antara atau variabel mediating. Model regresi dengan variabel intervening merupakan hubungan bertingkat sehingga jika dengan analisis regresi harus menggunakan analisis jalur (path analysis) atau disarankan menggunakan metode structural equation modelling (SEM). Metode SEM akan dibahas belakangan dengan menggunakan Program AMOS atau LISREL

Regresi dengan variabel intervening dipergunakan untuk melihat pengaruh tidak langsung antara satu variabel terhadap variabel yang lain. Sebagai contoh: Gaya Evaluasi Atasan (GEA) mempunyai pengaruh terhadap Kinerja Manajerial (KM) melalui Tekanan Kerja (TK). GEA mempunyai pengaruh langsung terhadap KM tetapi juga bisa mempunyai pengaruh tidak langsung terhadap KM melalui TK. GEA diinterpretasikan mempunyai pengaruh tidak langsung terhadap KM melalui TK jika pengaruh GEA terhadap TK signifikan dan pengaruh TK terhadap KM juga signifikan. Dalam suatu kasus bisa saja variabel mempunyai pengaruh langsung terhadap suatu variabel dan pengaruh tidak langsung terhadap variabel tersebut melalui variabel yang lain.

Regresi Linear dengan Variabel Moderating

Variabel moderating adalah variabel yang memperkuat atau memperlemah hubungan antara satu variabel dengan variabel lain. Sebagai contoh: seorang suami menyayangi istrinya. Dengan hadirnya seorang anak, maka rasa sayang tersebut bertambah. Berarti variabel anak merupakan moderating antara rasa saya suami terhadap istri. Contoh lain: kompensasi memperkuat pengaruh antara kepuasan kerja terhadap kinerja. Artinya kepuasan kerja berpengaruh terhadap kinerja, dan adanya kompensasi yang tinggi maka pengaruh antara kepuasan kerja terhadap kinerja menjadi lebih meningkat. Dalam hal ini, kompensasi bisa saja berpengaruh terhadap kinerja bisa saja tidak.

Metode analisis regresi linear dengan variabel moderating:

1. Multiple Regression Analysis (MRA)

Metode ini dilakukan dengan menambahkan variabel perkalian antara variabel bebas dengan variabel moderatingnya, sehingga persamaan umumnya adalah sebagai berikut: Y = a + b1 X1 + b2 X2 + b3 X1 X2 dengan Y adalah kinerja, X1 adalah kepuasan kerja, X2 kompensasi dan X1 X2 adalah perkalian antara kepuasan kerja dengan kompensasi. Hipotesis moderating diterima jika variabel X1 X2 mempunyai pengaruh signifikan terhadap Y, tidak tergantung apakah X1 dan X2 mempunyai pengaruh terhadap Y atau tidak. Model ini biasanya menyalahi asumsi multikolinearitas atau adanya korelasi yang tinggi antara variabel bebas dalam model regresi, sehingga menyalahi asumsi klasik. Hampir tidak ada model MRA yang terbebas dari masalah multikolinearitas, sehingga sebenarnya model ini tidak disarankan untuk dipergunakan.

2. Absolut residual

Model ini mirip dengan MRA, tetapi variabel moderating didekati dengan selisih mutlak (absolut residual) antara variabel bebas dengan variabel moderatingnya. Penerimaan hipotesis juga sama, dan model ini masih riskan terhadap gangguan multikolinearitas meskipun risiko itu lebih kecil dari pada dengan metode MRA.

3. Residual

Model ini menggunakan konsep lack of fit yaitu hipotesis moderating diterima terjadi jika terdapat ketidakcocokan dari deviasi hubungan linear antara variabel independen. Langkahnya adalah dengan meregresikan antara kepuasan kerja terhadap kompensasi dan dihitung nilai residualnya. Pada program SPSS dengan klik Save pada regreesion, lalu klik pada usntandardized residual. Nilai residual kemudian diambil nilai absolutnya lalu diregresikan antara kinerja terhadap absolut residual. Hipotesis moderating diterima jika nilai t hitung adalah negatif dan signifikan. Model ini terbebas dari gangguan multikolinearitas karena hanya menggunakan satu variabel bebas.

Pertanyaan-pertanyaan yang sering muncul:

1. Ada model regresi moderating dengan MRA tetapi output memenuhi uji multikolinearitas?

Hampir tidak ada model moderating dengan MRA yang terbebas dari gangguan multikolinearitas. Banyak output pada skripsi yang dimanipulasi agar tampaknya memenuhi asumsi multikolinearitas padahal sebenarnya tidak. Hal ini banyak terjadi di mana (maaf) dosen tidak terlalu menguasai statistik secara baik. Penulis sendiri belum pernah melihat tabulasi data yang memenuhi model moderating dengan metode MRA.

2. Bagaimana model regresi moderating dengan dua buah variabel bebas?

Model dengan MRA menjadi Y = a + b1 X1 + b2 X2 + b3 X3 + b4 X1 X2 + b5 X1 X3 + b6 X2 X3 + bb X1 X2 X3 di mana X3 adalah variabel moderating (he he…jadi panjang banget kan). Hipotesis diterima jika X1 X2 X3 signifikan, tetapi hampir pasti model ini menyalahi asumsi multikolinearitas. Sebaiknya digunakan model residual dengan lack of fit.

3. Bagaimana merancang model regresi dengan moderating pada penelitian?

Model moderating ditentukan dengan tinjauan teoretis, sehingga analisis dengan moderating hanya mengkonfirmasi saja teori tersebut apakah cocok dengan model empiris. Tidak boleh menggunakan alat statistik moderating untuk mengidentifikasikan bahwa variabel itu merupakan variabel moderating.

Diposkan oleh Konsultan Statistik di 16:43 14 komentar Link ke posting ini

Label: ,

Kamis, 12 Maret 2009

Regresi Linear

Regresi linear adalah alat statistik yang dipergunakan untuk mengetahui pengaruh antara satu atau beberapa variabel terhadap satu buah variabel. Variabel yang mempengaruhi sering disebut variabel bebas, variabel independen atau variabel penjelas. Variabel yang dipengaruhi sering disebut dengan variabel terikat atau variabel dependen.

Secara umum regresi linear terdiri dari dua, yaitu regresi linear sederhana yaitu dengan satu buah variabel bebas dan satu buah variabel terikat; dan regresi linear berganda dengan beberapa variabel bebas dan satu buah variabel terikat. Analisis regresi linear merupakan metode statistik yang paling jamak dipergunakan dalam penelitian-penelitian sosial, terutama penelitian ekonomi. Program komputer yang paling banyak digunakan adalah SPSS (Statistical Package For Service Solutions).

Regresi Linear Sederhana

Analisis regresi linear sederhana dipergunakan untuk mengetahui pengaruh antara satu buah variabel bebas terhadap satu buah variabel terikat. Persamaan umumnya adalah:

Y = a + b X.

Dengan Y adalah variabel terikat dan X adalah variabel bebas. Koefisien a adalah konstanta (intercept) yang merupakan titik potong antara garis regresi dengan sumbu Y pada koordinat kartesius.

Langkah penghitungan analisis regresi dengan menggunakan program SPSS adalah: Analyse –> regression –> linear. Pada jendela yang ada, klik variabel terikat lalu klik tanda panah pada kota dependent. Maka variabel tersebut akan masuk ke kotak sebagai variabel dependen. Lakukan dengan cara yang sama untuk variabel bebas (independent). Lalu klik OK dan akan muncul output SPSS.

Interpretasi Output

  1. Koefisien determinasi

Koefisien determinasi mencerminkan seberapa besar kemampuan variabel bebas dalam menjelaskan varians variabel terikatnya. Mempunyai nilai antara 0 – 1 di mana nilai yang mendekati 1 berarti semakin tinggi kemampuan variabel bebas dalam menjelaskan varians variabel terikatnya.

  1. Nilai t hitung dan signifikansi

Nilai t hitung > t tabel berarti ada pengaruh yang signifikan antara variabel bebas terhadap variabel terikat, atau bisa juga dengan signifikansi di bawah 0,05 untuk penelitian sosial, dan untuk penelitian bursa kadang-kadang digunakan toleransi sampai dengan 0,10.

  1. Persamaan regresi

Sebagai ilustrasi variabel bebas: Biaya promosi dan variabel terikat: Profitabilitas (dalam juta rupiah) dan hasil analisisnya Y = 1,2 + 0,55 X. Berarti interpretasinya:

  1. Jika besarnya biaya promosi meningkat sebesar 1 juta rupiah, maka profitabilitas meningkat sebesar 0,55 juta rupiah.
  2. Jika biaya promosi bernilai nol, maka profitabilitas akan bernilai 1,2 juta rupiah.

Interpretasi terhadap nilai intercept (dalam contoh ini 1,2 juta) harus hati-hati dan sesuai dengan rancangan penelitian. Jika penelitian menggunakan angket dengan skala likert antara 1 sampai 5, maka interpretasi di atas tidak boleh dilakukan karena variabel X tidak mungkin bernilai nol. Interpretasi dengan skala likert tersebut sebaiknya menggunakan nilai standardized coefficient sehingga tidak ada konstanta karena nilainya telah distandarkan.

Contoh: Pengaruh antara kepuasan (X) terhadap kinerja (Y) dengan skala likert antara 1 sampai dengan 5. Hasil output yang digunakan adalah standardized coefficients sehingga Y = 0,21 X dan diinterpretasikan bahwa peningkatan kepuasan kerja akan diikuti dengan peningkatan kinerja atau penurunan kepuasan kerja juga akan diikuti dengan penurunan kinerja. Peningkatan kepuasan kerja dalam satu satuan unit akan diikuti dengan peningkatan kinerja sebesar 0,21 (21%).

Regresi Linear Berganda

Analisis regresi linear berganda sebenarnya sama dengan analisis regresi linear sederhana, hanya variabel bebasnya lebih dari satu buah. Persamaan umumnya adalah:

Y = a + b1 X1 + b2 X2 + …. + bn Xn.

Dengan Y adalah variabel bebas, dan X adalah variabel-variabel bebas, a adalah konstanta (intersept) dan b adalah koefisien regresi pada masing-masing variabel bebas.

Interpretasi terhadap persamaan juga relatif sama, sebagai ilustrasi, pengaruh antara motivasi (X1), kompensasi (X2) dan kepemimpinan (X3) terhadap kepuasan kerja (Y) menghasilkan persamaan sebagai berikut:

Y = 0,235 + 0,21 X1 + 0,32 X2 + 0,12 X3

  1. Jika variabel motivasi meningkat dengan asumsi variabel kompensasi dan kepemimpinan tetap, maka kepuasan kerja juga akan meningkat
  2. Jika variabel kompensasi meningkat, dengan asumsi variabel motivasi dan kepemimpinan tetap, maka kepuasan kerja juga akan meningkat.
  3. Jika variabel kepemimpinan meningkat, dengan asumsi variabel motivasi dan kompensasi tetap, maka kepuasan kerja juga akan meningkat.

Interpretasi terhadap konstanta (0,235) juga harus dilakukan secara hati-hati. Jika pengukuran variabel dengan menggunakan skala Likert antara 1 sampai dengan 5 maka tidak boleh diinterpretasikan bahwa jika variabel motivasi, kompensasi dan kepemimpinan bernilai nol, sebagai ketiga variabel tersebut tidak mungkin bernilai nol karena Skala Likert terendah yang digunakan adalah 1.

Analisis regresi linear berganda memerlukan pengujian secara serempak dengan menggunakan F hitung. Signifikansi ditentukan dengan membandingkan F hitung dengan F tabel atau melihat signifikansi pada output SPSS. Dalam beberapa kasus dapat terjadi bahwa secara simultan (serempak) beberapa variabel mempunyai pengaruh yang signifikan, tetapi secara parsial tidak. Sebagai ilustrasi: seorang penjahat takut terhadap polisi yang membawa pistol (diasumsikan polisis dan pistol secara serempak membuat takut penjahat). Akan tetapi secara parsial, pistol tidak membuat takut seorang penjahat. Contoh lain: air panas, kopi dan gula menimbulkan kenikmatan, tetapi secara parsial, kopi saja belum tentu menimbulkan kenikmatan.

Penggunaan metode analisis regresi linear berganda memerlukan asumsi klasik yang secara statistik harus dipenuhi. Asumsi klasik tersebut meliputi asumsi normalitas, multikolinearitas, autokorelasi, heteroskedastisitas dan asumsi linearitas (akan dibahas belakangan).

Langkah-langkah yang lazim dipergunakan dalam analisis regresi linear berganda adalah 1) koefisien determinasi; 2) Uji F dan 3 ) uji t. Persamaan regresi sebaiknya dilakukan di akhir analisis karena interpretasi terhadap persamaan regresi akan lebih akurat jika telah diketahui signifikansinya. Koefisien determinasi sebaiknya menggunakan adjusted R Square dan jika bernilai negatif maka uji F dan uji t tidak dapat dilakukan.

Pertanyaan-pertanyaan yang sering muncul

  1. Dalam uji regresi sederhana apakah perlu menginterpretasikan nilai F hitung?

Uji F adalah uji kelayakan model (goodness of fit) yang harus dilakukan dalam analisis regresi linear. Untuk analisis regresi linear sederhana Uji F boleh dipergunakan atau tidak, karena uji F akan sama hasilnya dengan uji t.

  1. Kapan menggunakan uji dua arah dan kapan menggunakan uji dua arah?

Penentuan arah adalah berdasarkan masalah penelitian, tujuan penelitian dan perumusan hipotesis. Jika hipotesis sudah menentukan arahnya, maka sebaiknya digunakan uji satu arah, tetapi jika hipotesis belum menentukan arah, maka sebaiknya menggunakan uji dua arah. Penentuan arah pada hipotesis berdasarkan tinjauan literatur. Contoh hipotesis dua arah: Terdapat pengaruh antara kepuasan terhadap kinerja. Contoh hipotesis satu arah: Terdapat pengaruh positif antara kepuasan terhadap kinerja. Nilai t tabel juga berbeda antara satu arah dan dua arah. Jika menggunakan signifikansi, maka signifikansi hasil output dibagi dua terlebih dahulu, baru dibandingkan dengan 5%.

  1. Apa bedanya korelasi dengan regresi?

Korelasi adalah hubungan dan regresi adalah pengaruh. Korelasi bisa berlaku bolak-balik, sebagai contoh A berhubungan dengan B demikian juga B berhubungan dengan A. Untuk regresi tidak bisa dibalik, artinya A berpengaruh terhadap B, tetapi tidak boleh dikatakan B berpengaruh terhadap A. Dalam kehidupan sehari-hari kedua istilah itu (hubungan dan pengaruh) sering dipergunakan secara rancu, tetapi dalam ilmu statistik sangat berbeda. A berhubungan dengan B belum tentu A berpengaruh terhadap B. Tetapi jika A berpengaruh terhadap B maka pasti A juga berhubungan dengan B. (Dalam analisis lanjut sebenarnya juga ada pengaruh yang bolak-balik yang disebut dengan recursive, yang tidak dapat dianalisis dengan analisis regresi tetapi menggunakan structural equation modelling).

About these ads

5 Comments

  1. fitri yunita said,

    27 January 2010 at 16:07

    saya mao tanya tentang regresi probit yaitu tg asumsi dan mencari penduga parameter dg maksimum likelihood serta uji yg di gunakan?.. tlg donk buku-buku referensinya. trims

  2. mulkanatjeh said,

    14 February 2010 at 17:04

    terima kasih atas pertanyaanya.. untuk langkah2nya buka aja:

    http://www.okstate.edu/sas/v8/saspdf/stat/chap54.pdf

    untuk referensi liat aja di tinjauan pustaka..
    saya jg lg blajar otodidak nih..hehe

  3. Anonymous said,

    18 December 2012 at 23:35

    cuma dua kata..
    LUAR BIASAAA…

  4. kiki said,

    15 February 2013 at 10:31

    selamat siang…
    saya rizky mahasiswi tingkat akhir…saya ingin melakukan penelitian tntg pengaruh modal intelektual terhadap nilai perusahaan dngan kinerja keuangan sebagai variabel intervening…menurut anda apakah saya harus menggunakan path analysis atau regresi berganda biasa?
    jika harus menggunakann path analisis….apa alasannya\/dan langkah2nya bagaimana?apakah seperti pada analisis regresi berganda?selain itu apakah perlu membuat persamaan regresi?
    maaf jika pertnyaan saya terlalu banyak,tetapi saya benar2 buta tentang path analysis…mohon penjelasnnya…
    terima kasih

  5. soffiyun said,

    15 February 2013 at 12:28

    saya mau tentang regresi ordinal, cara menginterpretasikan hasil out put bagai mana ya? tolong dong buku refrerensinya..


Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s

Follow

Get every new post delivered to your Inbox.

%d bloggers like this: