Beranda Pendidikan Pernyataan Kasus Terhadap Pengungkapan AI (opini)

Pernyataan Kasus Terhadap Pengungkapan AI (opini)

13
0
Pernyataan Kasus Terhadap Pengungkapan AI (opini)


Saya dulu mengharuskan siswa saya mengirimkan pernyataan pengungkapan AI setiap kali mereka menggunakan AI generatif dalam suatu tugas. Saya tidak akan melakukan itu lagi.

Sejak awal momen jenuh AI saat ini, saya lebih condong ke ChatGPT, dan merupakan pengguna awal AI di kelas komposisi kampus saya. Penerapan awal saya terhadap AI bergantung pada perlunya transparansi dan keterbukaan. Siswa harus memberi tahu saya kapan dan bagaimana mereka menggunakan AI. Saya masih sangat percaya pada nilai-nilai tersebut, namun saya tidak lagi percaya bahwa pernyataan pengungkapan yang diwajibkan dapat membantu kita mencapainya.

Lihat. Saya mengerti. Beralih dari pernyataan pengungkapan AI merupakan hal yang bertentangan dengan banyak lembaga pendidikan tinggi saat ini praktik terbaik untuk penggunaan AI yang bertanggung jawab. Namun saya mulai mempertanyakan kebijaksanaan pernyataan pengungkapan pada musim semi 2024, ketika saya melihat ada masalah. Siswa di kursus komposisi saya menyerahkan karya yang jelas-jelas dibuat dengan bantuan AI, tetapi mereka gagal memberikan pernyataan pengungkapan yang diperlukan. Saya bingung dan frustrasi. Saya berpikir, “Saya mengizinkan mereka menggunakan AI; saya mendorong mereka untuk bereksperimen dengannya; yang saya minta hanyalah mereka memberi tahu saya bahwa mereka menggunakan AI. Jadi, mengapa diam saja?” Saat mengobrol dengan kolega di departemen saya yang memiliki sikap permisif AI dan persyaratan pengungkapan yang serupa, saya menemukan mereka mengalami masalah serupa. Bahkan ketika kami memberi tahu siswa kami bahwa penggunaan AI baik-baik saja, siswa tetap tidak mau mengaku.

Mengaku. Mengakui. Itulah masalahnya.

Pernyataan pengungkapan wajib saat ini terasa seperti pengakuan atau pengakuan bersalah. Dan mengingat budaya curiga dan malu yang mendominasi banyak hal wacana AI di pendidikan tinggi saat ini, saya tidak bisa menyalahkan siswa karena enggan mengungkapkan penggunaannya. Bahkan di kelas yang dosennya memperbolehkan dan mendorong penggunaan AI, siswa tidak bisa lepas dari pesan yang lebih luas bahwa penggunaan AI adalah tindakan yang terlarang dan rahasia.

Pernyataan pengungkapan AI telah menjadi semacam pengakuan performatif yang aneh: permintaan maaf dilakukan untuk profesor, menandai siswa yang jujur ​​dengan “AI merah”, sementara siswa yang kurang teliti melarikan diri tanpa terdeteksi (atau mungkin tersangkatetapi tidak dinyatakan bersalah).

Meskipun pernyataan pengungkapan AI wajib dimaksudkan, hal itu telah menjadi bumerang bagi kita. Alih-alih mendukung transparansi dan kejujuran, mereka malah menstigmatisasi eksplorasi penggunaan AI yang etis, bertanggung jawab, dan kreatif, serta mengubah pedagogi kita ke arah pengawasan dan kecurigaan. Saya menyarankan agar lebih produktif jika kita menganggap penggunaan AI pada tingkat tertentu sebagai hal yang wajar, dan, sebagai tanggapannya, menyesuaikan metode penilaian dan evaluasi kita sekaligus berupaya untuk menormalisasi penggunaan alat AI dalam pekerjaan kita.

Studi menunjukkan bahwa pengungkapan AI membawa risiko baik di dalam maupun di luar kelas. Sebuah penelitian diterbitkan pada bulan Mei melaporkan bahwa segala jenis pengungkapan (baik sukarela maupun wajib) dalam berbagai konteks mengakibatkan penurunan kepercayaan pada orang yang menggunakan AI (hal ini tetap terjadi bahkan ketika peserta penelitian memiliki pengetahuan sebelumnya tentang penggunaan AI oleh seseorang, artinya, penulis menulis, “Efek yang diamati terutama dapat dikaitkan dengan tindakan pengungkapan, bukan fakta penggunaan AI.”)

Lain artikel terbaru menunjukkan adanya kesenjangan antara nilai-nilai kejujuran dan kesetaraan dalam hal pengungkapan AI yang bersifat wajib: Orang tidak akan merasa aman untuk mengungkapkan penggunaan AI jika ada anggapan bahwa ada kurangnya kepercayaan dan rasa hormat.

Beberapa orang yang memiliki sikap tidak menyenangkan terhadap AI akan menganggap temuan ini sebagai bukti bahwa siswa sebaiknya menghindari penggunaan AI sama sekali. Tapi menurut saya hal itu tidak realistis. Bias anti-AI hanya akan mendorong penggunaan AI oleh siswa secara diam-diam dan mengurangi peluang untuk melakukan dialog yang jujur. Hal ini juga menghambat upaya yang mulai dilakukan oleh perusahaan yang melek AI mengharapkan Dan memerlukan.

Pengungkapan AI yang diwajibkan bagi siswa tidak kondusif untuk refleksi autentik, melainkan semacam sinyal kebajikan yang meredam percakapan jujur ​​yang seharusnya kita lakukan dengan siswa. Pemaksaan hanya menghasilkan keheningan dan kerahasiaan.

Pengungkapan AI yang diwajibkan juga tidak mengurangi fitur terburuk dari makalah AI yang ditulis dengan buruk, termasuk nada yang tidak jelas dan seperti robot; kelebihan bahasa pengisi; dan, ciri khas mereka yang paling mengerikan, sumber dan kutipan yang dibuat-buat.

Daripada menuntut siswa mengakui kejahatan AI mereka kepada kami melalui pernyataan pengungkapan wajib, saya menganjurkan perubahan perspektif dan perubahan tugas. Kita perlu beralih dari memandang bantuan AI kepada siswa sebagai pengecualian khusus yang memerlukan pengawasan reaksioner, menjadi menerima dan menormalisasi penggunaan AI sebagai fitur yang lazim dalam pendidikan siswa.

Pergeseran ini tidak berarti kita harus mengizinkan dan menerima semua penggunaan AI oleh siswa. Kita tidak boleh pasrah membaca kata-kata kotor AI yang dihasilkan siswa sebagai upaya untuk menghindari pembelajaran. Ketika dihadapkan dengan makalah AI yang ditulis dengan buruk dan tidak terdengar seperti siswa yang menyerahkannya, fokusnya bukan pada apakah siswa tersebut menggunakan AI tetapi pada mengapa tulisan tersebut tidak bagus dan mengapa gagal memenuhi persyaratan tugas. Tidak perlu dikatakan lagi bahwa sumber dan kutipan palsu, terlepas dari apakah sumbernya berasal dari manusia atau AI, harus dianggap sebagai pemalsuan yang tidak akan ditoleransi.

Kita harus membangun kriteria penugasan dan evaluasi yang mendisinsentifkan jenis penggunaan AI tidak terampil yang menghindari pembelajaran. Kita harus mengajari siswa dasar literasi dan etika AI. Kita harus membangun dan memupuk lingkungan pembelajaran yang menghargai transparansi dan kejujuran. Namun transparansi dan kejujuran yang nyata membutuhkan rasa aman dan kepercayaan sebelum hal tersebut dapat berkembang.

Kita dapat mulai membangun lingkungan belajar seperti itu dengan berupaya menormalkan penggunaan AI oleh siswa kita. Beberapa gagasan yang muncul dalam pikiran antara lain:

  • Memberi tahu siswa kapan dan bagaimana Anda menggunakan AI dalam pekerjaan Anda, termasuk keberhasilan dan kegagalan dalam penggunaan AI.
  • Menawarkan penjelasan yang jelas kepada siswa tentang bagaimana mereka dapat menggunakan AI secara produktif di berbagai kesempatan di kelas Anda dan mengapa mereka mungkin tidak ingin menggunakan AI di waktu lain. (Danny Liu Model menu adalah contoh bagus dari strategi ini.)
  • Menambahkan tugas seperti jurnal penggunaan dan refleksi AI, yang menawarkan siswa peluang kecil untuk bereksperimen dengan AI dan merefleksikan pengalamannya.
  • Menambahkan kesempatan bagi siswa untuk mempresentasikan di depan kelas setidaknya satu hal keren, aneh, atau berguna yang mereka lakukan dengan AI (bahkan mungkin mendorong mereka untuk menceritakan kegagalan AI mereka juga).

Inti dari contoh-contoh ini adalah kita mengundang siswa ke dalam momen yang kacau, mengasyikkan, dan menakutkan yang kita semua alami. Mereka mengalihkan fokus dari pengakuan yang dipaksakan ke ajakan untuk bergabung dan berbagi kebijaksanaan, pengalaman, dan keahlian yang mereka kumpulkan saat kita semua menyesuaikan diri dengan era AI.

Julie McCown adalah profesor bahasa Inggris di Southern Utah University. Dia sedang mengerjakan sebuah buku tentang bagaimana penggunaan disrupsi AI menghasilkan pembelajaran yang lebih menarik dan bermakna bagi mahasiswa dan dosen.



Source link

TINGGALKAN KOMENTAR

Silakan masukkan komentar anda!
Silakan masukkan nama Anda di sini