Bisnis.com, JAKARTA - Studi Katadata 2025 menunjukkan lebih dari 80% bisnis di Indonesia telah memanfaatkan AI, namun hanya 13% yang mencapai tahap adopsi lanjutan. Ini menandakan bahwa hambatan utamanya bukan pada teknologi, melainkan pada belum kuatnya kerangka implementasi yang bertanggung jawab. Tanpa fondasi etika, AI berisiko memicu persoalan reputasi dan hukum.
Misalnya, dalam penerapan Conversational AI, dua risiko etika kerap muncul. Pertama, bias data, yaitu saat AI memproses data yang tidak merepresentasikan populasi secara utuh, sehingga menghasilkan kesimpulan yang kurang akurat dan berpotensi diskriminatif. Dampaknya, akses layanan menjadi tidak inklusif bagi sebagian kalangan. Pasar semakin sempit dan tekanan regulasi meningkat.
Kedua, privasi dan keamanan data, termasuk potensi manipulasi percakapan untuk menggali informasi pribadi secara tidak bertanggung jawab. Conversational AI memproses dan menyimpan data yang besar, mulai dari identitas pengguna hingga percakapan sensitif. Tanpa pengelolaan tepat, data berisiko disalahgunakan atau diakses tanpa izin oleh oknum, terutama di sektor sensitif seperti layanan kesehatan, seperti rekam medis pasien yang rentan terhadap serangan siber. Dampak lebih serius termasuk kebocoran informasi dan konsekuensi legal yang serius untuk perusahaan.
Kini, pelaku bisnis sedang memperhatikan Agentic AI, teknologi yang mengorkestrasi berbagai fungsi operasional, seperti marketing, sales, dan support. Namun, otonomi yang memungkinkan adaptasi dan pengambilan keputusan menghadirkan tantangan etika. Agentic AI bekerja berdasarkan dataset yang besar dan tujuan yang bermacam-macam, sehingga, pemikirannya bisa bias dan prioritasnya bisa bertentangan. Tanpa batasan jelas dalam proses pengambilan keputusan, hal ini dapat menimbulkan konsekuensi serius.
“Secara keseluruhan, tantangan adopsi AI kini lebih berkaitan dengan aspek kendali dan akuntabilitas atas sistem mandiri yang bertindak atas nama perusahaan. Untuk mencegah pelanggaran etika, bisnis perlu mengevaluasi tiga area utama: analisis stakeholders, untuk memetakan dampak AI terhadap pihak terkait; asesmen risiko teknis, guna mengantisipasi potensi kegagalan sistem dan menetapkan batasan kewenangan AI dalam pengambilan keputusan; dan penguatan tata kelola, agar pengawasan, akuntabilitas, dan tanggung jawab AI tetap selaras dengan regulasi.” Jelas Kukuh Prayogi, Enterprise Business Director di Infobip Indonesia.
Sebagai enabler teknologi, Infobip percaya etika AI adalah syarat berkembangnya teknologi ini. Berdasarkan pengalaman mengembangkan solusi AI di berbagai industri, ada beberapa prinsip utama:
Pertama, perlindungan privasi data pelanggan. AI membutuhkan data untuk personalisasi layanan, tapi pengumpulannya harus berbasis tujuan jelas dan proporsional. Perusahaan perlu menetapkan data yang dibutuhkan dan melindungi data dengan sistem yang kuat, seperti penyimpanan yang aman di platform seperti Azure. Mitigasi terhadap potensi serangan prompt injection juga perlu. Infobip bermitra dengan SplxAI guna melakukan simulasi serangan siber pada sistem AI dan menguji potensi kebocoran data.
Kedua, menjaga akurasi dan integritas hasil AI. Perusahaan tetap bertanggung jawab atas setiap tindakan, keputusan, dan dampak yang dihasilkan oleh AI yang mereka gunakan. Karena itu, pendekatan Retrieval-Augmented Generation (RAG) menjadi relevan. Metode ini membuat AI tidak hanya mengandalkan “ingatannya”, tetapi juga sumber data internal yang sudah terverifikasi. Dengan begitu, sumber informasi lebih mudah dilacak, risiko halusinasi berkurang, penerapan kebijakan internal secara konsisten dapat dijamin, dan potensi hasil yang menyesatkan atau bias dapat diminimalkan.
Ketiga, transparansi kepada pelanggan dan pengguna. Perusahaan perlu menjelaskan jenis data yang digunakan kepada pelanggan, seperti instruksi model, dokumen pendukung, dan data kontekstual lainnya. Perusahaan juga perlu mengomunikasikan perannya sebagai pemroses data sesuai instruksi pelanggan, dengan parameter privasi yang telah disepakati. Langkah ini semakin penting, mengingat masih banyak pengguna di Indonesia yang kesulitan membedakan konten yang dihasilkan AI dengan yang dibuat manusia.
Keempat, verifikasi yang ketat terhadap mitra dan vendor. Implementasi AI melibatkan banyak pihak, sehingga setiap kerja sama dengan pihak ketiga yang memproses data harus dievaluasi terkait privasi dan keamanannya. Perusahaan juga perlu transparan kepada pelanggan jika terdapat perubahan mitra atau pola interaksi data, sesuai dengan perjanjian yang berlaku.
Pada akhirnya, perkembangan adopsi AI dapat berhasil dengan kepercayaan masyarakat, bukan kecanggihan teknologinya semata. Etika, privasi, dan akuntabilitas menjadi fondasi untuk pemanfaatan AI yang berkelanjutan dan bertanggung jawab. Di Infobip, prinsip ini tertanam dalam strategi pengembangan dan implementasi AI melalui kerangka etika yang jelas dan pendekatan human-in-the-loop sebagai kendali utama. Pengawasan oleh manusia memastikan sistem terkendali dan memungkinkan intervensi saat risiko muncul. Infobip mendukung perusahaan mengadopsi AI yang terpercaya. AI yang memiliki akuntabilitas pada setiap prosesnya lah yang akan membangun kepercayaan masyarakat seiring waktu.