Kanada Kecewa OpenAI Soal Penembakan di British Columbia

Smallest Font
Largest Font

Pemerintah federal Kanada mengungkapkan kekecewaannya kepada OpenAI setelah pertemuan di Ottawa. Kekesalan ini dipicu kegagalan perusahaan memperingatkan aparat penegak hukum terkait pelaku penembakan massal di Tumbler Ridge, British Columbia.

Menteri Kecerdasan Buatan Kanada, Evan Solomon, menyampaikan langsung kekecewaan para pejabat federal kepada perwakilan OpenAI. Pertemuan ini diadakan atas permintaannya, menyusul laporan yang mengganggu mengenai lambatnya eskalasi tanda-tanda potensi kekerasan.

Kasus ini mencuat setelah Wall Street Journal melaporkan bahwa akun pelaku, Jesse Van Rootselaar, telah diblokir dari platform ChatGPT milik OpenAI setidaknya tujuh bulan lalu. Pemblokiran dilakukan karena unggahan yang dianggap bermasalah, termasuk skenario kekerasan bersenjata. Namun, OpenAI tidak memberitahu kepolisian hingga setelah penembakan pada 10 Februari.

Solomon menyatakan bahwa perusahaan tidak memberikan "langkah keselamatan baru yang substansial" dalam pertemuan tersebut. Meski demikian, OpenAI berjanji akan kembali dengan proposal yang lebih konkret. Ia juga menegaskan bahwa OpenAI bekerja sama dengan Royal Canadian Mounted Police (RCMP) dalam penyelidikan yang masih berlangsung.

"Kami tidak membahas detail kasus karena ini investigasi kriminal," kata Solomon kepada wartawan sebelum rapat kabinet di Parliament Hill. Ia menambahkan bahwa tanda-tanda peringatan yang kredibel seharusnya dilaporkan dengan cepat, bukan sekadar ditinjau secara internal ketika keselamatan publik dipertaruhkan.

OpenAI sebelumnya menyatakan bahwa akun Van Rootselaar diblokir pada Juni. Aktivitas tersebut dinilai belum memenuhi ambang batas untuk melibatkan aparat penegak hukum karena tidak menunjukkan rencana yang kredibel atau ancaman yang bersifat segera.

Isu ini memicu perdebatan yang lebih luas tentang tanggung jawab perusahaan AI. Emily Laidlaw, pakar hukum keamanan siber dan Canada Research Chair di University of Calgary, berpendapat bahwa Kanada dapat mempertimbangkan undang-undang yang mewajibkan perusahaan AI melaporkan ancaman daring kepada polisi.

Namun, Laidlaw mengingatkan bahwa merancang aturan seperti itu bukan perkara mudah. "Anda tidak bisa mewajibkan setiap kecurigaan dilaporkan ke polisi. Itu tidak realistis," kata Laidlaw. Menurutnya, setiap perusahaan AI saat ini menetapkan kebijakan sendiri tentang kapan harus menghubungi penegak hukum. Kanada sempat mempertimbangkan aturan pelaporan serupa pada 2021, tetapi tidak pernah diwujudkan setelah mendapat penolakan signifikan.

Perdana Menteri British Columbia, David Eby, mendesak pemerintah federal menetapkan ambang batas pelaporan yang jelas dan transparan. Ia mengatakan aturan tersebut harus melindungi perusahaan dari risiko privasi sekaligus memastikan keselamatan warga.

"Saya ingin mereka melihat langsung keluarga korban dan menjelaskan mengapa mereka mengambil keputusan itu," ujar Eby, seraya menambahkan bahwa ia telah meminta pertemuan sendiri dengan perwakilan OpenAI.

Menteri Kehakiman federal Kanada, Sean Fraser, menyatakan bahwa aparat penegak hukum sedang mengumpulkan informasi. Mungkin akan ada peninjauan sistemik atas apa yang terjadi dalam kasus Tumbler Ridge. "Kami perlu memahami percakapan apa yang saat ini tidak terlihat oleh penegak hukum, tetapi bisa sangat membantu mencegah tragedi di masa depan," katanya.

Pemerintah Liberal bulan lalu mengonfirmasi tengah menyusun legislasi baru untuk menangani bahaya daring. Pada 2024, pemerintah sempat mengajukan aturan yang mewajibkan perusahaan media sosial menjelaskan cara mereka mengurangi risiko terhadap pengguna dan menetapkan kewajiban melindungi anak-anak. Namun rancangan itu gugur sebelum pemilu 2025 digelar.

Menteri Kebudayaan Kanada, Marc Miller, mengatakan kebutuhan akan legislasi tetap ada, meski bentuk pastinya belum ditentukan. "Platform harus bertindak bertanggung jawab, tetapi seperti apa regulasinya masih dalam pembahasan," ujarnya.

Kasus ini memperlihatkan dilema era AI: kapan sebuah percakapan digital berubah dari sekadar ekspresi menjadi sinyal ancaman nyata? Jika ambang batas terlalu rendah, polisi akan dibanjiri laporan yang belum tentu relevan. Jika terlalu tinggi, risiko tragis bisa terlewat.

Di tengah tekanan publik dan duka keluarga korban, Ottawa kini menghadapi pertanyaan mendasar: apakah chatbot hanyalah alat netral, atau sudah menjadi aktor sosial yang memikul tanggung jawab hukum baru? Di zaman ketika algoritma membaca niat sebelum manusia sempat menyadarinya, garis antara privasi, kebebasan berekspresi, dan keselamatan publik menjadi semakin tipis — dan semakin mendesak untuk ditentukan.

Editors Team
Daisy Floren

What's Your Reaction?

  • Like
    0
    Like
  • Dislike
    0
    Dislike
  • Funny
    0
    Funny
  • Angry
    0
    Angry
  • Sad
    0
    Sad
  • Wow
    0
    Wow