Pernyataan Sam Altman sebenarnya membuka ruang refleksi yang lebih luas. Jika sang arsitek utama ChatGPT sendiri merasa khawatir dengan kepercayaan berlebihan pengguna, maka publik seharusnya lebih waspada. Dalam konteks ini, kita sedang menyaksikan paradoks digital. Teknologi yang dirancang untuk memperkuat pikiran manusia justru bisa melemahkan daya nalar jika digunakan tanpa kendali.
Kebergantungan pada AI tidak terjadi secara tiba-tiba. Perkembangan model bahasa besar (LLM) seperti ChatGPT telah menggoda banyak pengguna dengan kemudahan dan kecepatan. Namun di balik kenyamanan itu, ada biaya kognitif yang tidak terlihat. Studi MIT menjadi peringatan dini bahwa penggunaan AI bukan hanya soal efisiensi, tetapi juga soal dampaknya terhadap struktur berpikir.
Ketika otak tidak lagi dilatih untuk menelusuri informasi secara mandiri, memproses ide, dan menyusun argumen, maka kemampuan reflektif akan menurun. Konektivitas pita alfa yang menurun hanyalah salah satu indikator. Yang lebih mengkhawatirkan adalah ketika manusia mulai menelan semua jawaban AI tanpa rasa ingin tahu untuk mengeceknya kembali.
Kritik sebagai Bentuk Kasih Sayang Teknologi
Pernyataan Altman sebenarnya bisa dibaca sebagai bentuk tanggung jawab moral. Ia tidak membantah potensi luar biasa dari AI, tetapi juga tidak menutupi kelemahan fundamentalnya. Dalam dunia teknologi yang penuh hype, suara seperti ini justru penting. Karena kepercayaan yang tidak proporsional bisa menjadi awal dari penyalahgunaan.
Hal ini mengingatkan kita bahwa AI bukanlah oracle. Ia tidak memiliki intuisi, kesadaran, atau tanggung jawab etis. Semua jawaban yang diberikan adalah hasil statistik prediktif berbasis data, bukan hasil pertimbangan moral atau intelektual. Maka, menjadi tugas kita sebagai pengguna untuk menjaga jarak yang sehat dengan alat ini.
Menuju Etika Penggunaan AI yang Cerdas
Dunia tidak bisa kembali ke era tanpa AI. Itu fakta. Tapi bagaimana kita menjalani era ini bisa ditentukan dari sekarang. Etika penggunaan AI tidak hanya soal larangan dan regulasi. Etika juga menyangkut bagaimana kita mengembangkan kebiasaan mental baru. Misalnya, membiasakan diri untuk memverifikasi jawaban dari AI, atau menggunakannya sebagai bahan awal, bukan satu-satunya sumber kebenaran.
Pendidikan literasi digital juga harus bertransformasi. Bukan hanya mengajarkan cara menggunakan teknologi, tapi juga membekali manusia dengan kepekaan untuk mengenali bias, keterbatasan, dan risiko informasi palsu. Jika tidak, kita bukan hanya akan kehilangan kemampuan berpikir kritis, tetapi juga akan menjadi budak algoritma yang kita puja.