Pendekatan Jepang terhadap Regulasi AI dan Dampaknya – Kecerdasan buatan (AI) membawa perubahan signifikan terhadap bisnis dan kehidupan kita sehari-hari. Meskipun AI menawarkan solusi dramatis terhadap permasalahan sosial, sifatnya yang tidak dapat diprediksi dan tidak dapat dijelaskan serta refleksi atau penyebaran bias informasi menimbulkan berbagai kekhawatiran mengenai privasi, keamanan, keadilan, dan bahkan demokrasi. Sebagai tanggapannya, pada akhir tahun 2010-an, pemerintah, organisasi internasional, dan lembaga penelitian di seluruh dunia mulai menerbitkan prinsip-prinsip kecerdasan buatan yang berpusat pada manusia.
Pendekatan Jepang terhadap Regulasi AI dan Dampaknya
meirapenna – Prinsip-prinsip awal yang luas kini telah berkembang menjadi aturan yang lebih spesifik. Pada tahun 2021, Komisi Eropa menerbitkan rancangan undang-undang AI yang mengklasifikasikan AI ke dalam empat tingkatan dan menetapkan kewajiban terkait, termasuk peningkatan langkah-langkah keamanan, transparansi, dan akuntabilitas. Di Amerika Serikat, Undang-Undang Akuntabilitas Algoritmik tahun 2022 diperkenalkan di kedua majelis Kongres pada bulan Februari 2022. Pada bulan Juni 2022, Kanada mengusulkan Undang-Undang Kecerdasan Buatan dan Data (AIDA), yang akan mengatur manajemen risiko dan pengungkapan informasi tentang sistem AI yang berpengaruh. bersifat wajib.
Meskipun regulasi AI diperlukan untuk mencegah ancaman terhadap nilai-nilai inti, ada kekhawatiran bahwa beban kepatuhan dan kurangnya kejelasan pada konten peraturan dapat menghambat inovasi. Selain itu, fragmentasi regulasi menimbulkan kerugian yang besar tidak hanya bagi dunia usaha, namun juga masyarakat. Mengatasi risiko AI dan mempercepat inovasi dan adopsi yang bermanfaat adalah salah satu tantangan tersulit bagi pembuat kebijakan, termasuk para pemimpin Kelompok Tujuh (G7).
Pada KTT G7 tahun 2023 di Jepang, para menteri digital diperkirakan akan membahas sebuah pendekatan digital-sentris. untuk manusia versus AI, yang mungkin mencakup peraturan atau alat kebijakan lainnya. Sebagai negara tuan rumah, pendekatan Jepang terhadap peraturan AI dapat berdampak signifikan dalam membangun konsensus di antara para pemimpin global. Artikel ini menganalisis tren utama dalam regulasi AI di Jepang dan membahas argumen apa yang dapat dikemukakan pada pertemuan puncak G7.
Singkatnya, Jepang telah mengembangkan dan merevisi peraturan terkait AI untuk memaksimalkan dampak positif AI terhadap masyarakat. daripada memendamnya karena resikonya terlalu besar. Fokusnya adalah pada proses berbasis risiko, tangkas dan multi-pemangku kepentingan, bukan pada kewajiban atau larangan universal. Pendekatan Jepang memberikan wawasan penting tentang tren global dalam regulasi AI.
Peraturan AI Jepang
Prinsip Dasar
Pada tahun 2019, pemerintah Jepang merilis Prinsip Sosial Kecerdasan Buatan yang Berpusat pada Manusia sebagai prinsip untuk memperkenalkan kecerdasan buatan ke dalam masyarakat. Prinsip-prinsip Sosial mendefinisikan tiga filosofi utama: martabat manusia, keberagaman dan inklusi, serta keberlanjutan. Penting untuk dicatat bahwa tujuan dari prinsip-prinsip sosial bukanlah untuk membatasi penggunaan AI untuk melindungi prinsip-prinsip ini, namun untuk menerapkannya melalui AI. Hal ini sesuai dengan struktur Prinsip AI Organisasi untuk Kerjasama Ekonomi dan Pembangunan (OECD) , yang prinsip pertamanya adalah mencapai “pertumbuhan inklusif, pembangunan berkelanjutan, dan kesejahteraan” melalui AI.
Untuk mencapai tujuan ini, Prinsip Sosial menetapkan tujuh prinsip seputar AI: (1) berpusat pada manusia;
(2) pendidikan/literasi;
(3) perlindungan privasi;
(4) menjamin keamanan;
(5) persaingan yang sehat;
(6) keadilan, akuntabilitas, dan transparansi; dan
(7) inovasi. Perlu dicatat bahwa prinsip-prinsip tersebut tidak hanya mencakup elemen perlindungan privasi dan keamanan tetapi juga prinsip-prinsip yang memandu penggunaan AI secara aktif, seperti pendidikan, persaingan sehat, dan inovasi.
Kebijakan regulasi AI di Jepang didasarkan pada Prinsip-Prinsip Sosial ini. Peraturan AI-nya dapat diklasifikasikan menjadi dua kategori. (Dalam makalah ini, “peraturan” tidak hanya mengacu pada hard law tetapi juga soft law, seperti pedoman dan standar yang tidak mengikat.):
Peraturan tentang AI : Peraturan untuk mengelola risiko yang terkait dengan AI.
Regulasi untuk AI : Reformasi regulasi untuk mendorong penerapan AI.
Sebagaimana diuraikan di bawah ini, Jepang menerapkan pendekatan berbasis risiko dan hukum lunak (soft-law) terhadap regulasi AI, sembari secara aktif memajukan reformasi legislatif dari perspektif regulasi AI.
Baca juga : Aplikasi Belajar Bahasa Jepang Terbaik di Android
Peraturan tentang AI
Peraturan yang Mengikat
Jepang tidak memiliki peraturan yang secara umum membatasi penggunaan AI. Menurut Tata Kelola AI di Jepang Ver. Menurut Laporan 1.1 Kementerian Ekonomi, Perdagangan dan Industri (METI) bulan Juli 2021, yang memberikan penjelasan mendalam tentang laporan tata kelola AI Jepang, persyaratan horizontal yang mengikat secara hukum untuk sistem AI tidak diperlukan. “Hal ini terjadi karena peraturan sulit mengimbangi kecepatan dan kompleksitas inovasi AI.
Dalam konteks ini, peraturan yang bersifat preskriptif, statis, dan terperinci dapat menghambat inovasi. Oleh karena itu, laporan METI menyatakan bahwa pemerintah harus menghormati sukarelawan perusahaan dalam pengelolaan AI dan menyediakan sumber daya untuk mendukung upaya-upaya ini atau pedoman rujukan yang tidak wajib. Pedoman ini harus didasarkan pada dialog multi-pihak dan diperbarui. Pendekatan ini disebut “agile Government”, yang merupakan pendekatan dasar Jepang terhadap tata kelola digital.
Jika melihat regulasi sektor tertentu, tidak ada regulasi yang melarang penggunaan kecerdasan buatan, melainkan mewajibkan dunia usaha. mengambil tindakan yang tepat dan mengungkapkan informasi risiko. Misalnya, Undang-Undang Transparansi Platform Digital mewajibkan pusat online besar, toko aplikasi, dan perusahaan periklanan digital untuk memastikan transparansi dan keadilan dalam interaksi mereka dengan pengguna bisnis, termasuk mengungkapkan faktor-faktor utama yang menentukan peringkat penelusuran mereka.
Undang-Undang Instrumen Keuangan dan Pertukaran mewajibkan perusahaan yang terlibat dalam perdagangan algoritmik berkecepatan tinggi untuk mendaftar ke pihak berwenang dan menetapkan sistem manajemen risiko serta memelihara catatan transaksi. Dari perspektif persaingan yang sehat, Komisi Perdagangan yang Adil Jepang menganalisis potensi risiko kartel dan perdagangan tidak adil algoritmik dan menyimpulkan bahwa sebagian besar masalah dapat ditutupi oleh undang-undang antimonopoli yang ada.
Undang-undang terkait lainnya
Ada beberapa undang-undang – undang-undang yang tidak mencakup undang-undang tersebut. secara langsung mengatur sistem AI, namun tetap penting untuk pengembangan dan penggunaan kecerdasan buatan. Undang-Undang Perlindungan Data Pribadi (APPI) menetapkan kewajiban hukum utama bagi organisasi yang mengumpulkan, menggunakan, atau mentransfer data pribadi.
Perubahan terbaru APPI yang mulai berlaku pada tahun 2022 adalah memperkenalkan konsep data pribadi dengan nama samaran. Karena kewajiban mengolah data pseudonim lebih ringan dibandingkan kewajiban mengolah data pribadi, konsep baru ini diharapkan dapat mendorong perusahaan untuk menggunakan lebih banyak data untuk pengembangan kecerdasan buatan.
Jika AI menimbulkan kerugian pada pihak ketiga, maka pengembang atau operator AI dapat dimintai pertanggungjawaban perdata atas perbuatan melawan hukum tersebut apabila lalai. Namun, sulit untuk menentukan siapa yang lalai dalam setiap situasi, karena keluaran AI tidak dapat diprediksi dan penyebab keluaran tersebut sulit diidentifikasi.[4] Undang-undang pertanggungjawaban produk mengurangi beban pembuktian bagi korban untuk menuntut tanggung jawab atas tindakan yang salah, namun undang-undang hanya mencakup kerusakan yang disebabkan oleh benda berwujud. Oleh karena itu, hal ini dapat berlaku pada perangkat keras tempat AI dipasang, namun tidak pada perangkat lunak AI itu sendiri.
Ada peraturan dan undang-undang lain yang relevan yang dirancang untuk mendorong pengembangan dan penerapan AI. ditambahkan ke bagian “Peraturan Kecerdasan Buatan”.
Baca juga : Website Terbaik Belajar Bahasa Inggris Online
Petunjuk untuk pihak swasta
Seperti disebutkan di atas, tidak ada undang-undang yang secara langsung melarang penggunaan kecerdasan buatan di Jepang. Namun sebagaimana disebutkan di atas, operator mungkin bertanggung jawab atas kerusakan atau tanggung jawab produk jika terjadi kecelakaan yang disebabkan oleh sistem AI. Selain itu, terdapat kasus – terutama di bidang privasi – di mana proyek AI ditolak karena kritik sosial, bukan karena melanggar peraturan yang ada. Untuk mengantisipasi kebutuhan ini, pemerintah menyediakan serangkaian alat untuk membantu perusahaan secara sukarela menerapkan inisiatif tata kelola AI yang tepat.
Panduan Tata Kelola AI dari MeTI merangkum tujuan operasional tata kelola sosial dan cara mencapainya berdasarkan kasus per kasus. Misalnya. . Panduan ini menjelaskan proses pembuatan dan pembaruan struktur tata kelola AI bekerja sama dengan pemangku kepentingan sesuai dengan kerangka tata kelola tangkas.
Banyak pedoman telah diterbitkan mengenai perlindungan dan penggunaan data. Buku pegangan tata kelola perusahaan mengenai privasi dalam transformasi digital dan buku pegangan tentang penggunaan gambar kamera, yang dikembangkan bersama oleh METI dan Kementerian Dalam Negeri dan Komunikasi (MIC), memberikan panduan tentang bagaimana perlindungan data dapat ditangani tidak hanya dari sudut pandang kepatuhan. pandangan. penglihatan dengan APPI, serta ketika mengambil keputusan yang relevan berdasarkan interaksi dengan pemangku kepentingan.
Untuk mendorong kontrak yang adil terkait pengembangan AI dan transfer data, METI telah menerbitkan Pedoman AI dan Perjanjian Penggunaan Data. Panduan ini menjelaskan masalah hukum utama saat menandatangani kontrak transfer data atau pengembangan AI dengan klausul model dunia nyata.
Inisiatif sukarela oleh perusahaan
Saat pemerintah mengeluarkan pedoman mengenai AI dan pengelolaan data, beberapa perusahaan swasta mulai mengatur pemerintahan secara proaktif. Kontrol AI. Fujitsu menerbitkan panduan praktis yang memperkenalkan prosedur untuk mengevaluasi implikasi etis dari kecerdasan buatan dan menerbitkan contoh penerapannya dalam kasus-kasus tertentu. Sony membuat Kode Etik AI Grup Sony dan memasukkannya ke dalam sistem manajemen mutunya. NEC mematuhi Prinsip AI dan Hak Asasi Manusia Grup NEC yang diterapkan oleh Departemen Strategi Bisnis Digital Trust.
Alat Lembaga Penelitian
Institut penelitian Jepang juga menawarkan berbagai alat untuk mempromosikan pengelolaan AI. Institut Nasional Sains dan Teknologi Industri Lanjutan (AIST), yang dikelola oleh METI, menyediakan Pedoman Manajemen Kualitas Pembelajaran Mesin yang menentukan standar kualitas produk atau layanan berdasarkan pembelajaran mesin. Hal ini juga memberikan pedoman prosedural untuk mencapai kualitas melalui manajemen proses pengembangan dan evaluasi sistem.
Sebagai contoh lainnya, Institute for Future Initiatives di Universitas Tokyo telah mengembangkan model rantai risiko untuk menyusun faktor risiko dalam AI dan sedang melakukan kasus kolaboratif studi dengan perusahaan swasta.