Kecerdasan Buatan dalam Investigasi Kriminal

Kecerdasan Buatan dalam Investigasi Kriminal

Kecerdasan Buatan dalam Investigasi Kriminal – Selama berabad-abad, orang telah berupaya mengotomatiskan dan menyederhanakan tugas agar lebih efisien: untuk mencapai tujuan yang diinginkan dengan biaya lebih rendah dan lebih cepat. Upaya ini berlanjut hingga saat ini sebagai pengoptimalan untuk memproses data dalam jumlah besar.

 

Kecerdasan Buatan dalam Investigasi Kriminal

Kecerdasan Buatan dalam Investigasi Kriminal

detektiv – Kecerdasan buatan (AI) adalah kombinasi algoritme yang dirancang untuk membuat perangkat dengan kemampuan manusia. Jenis teknologi yang akan digunakan dalam aplikasi paling umum dalam kehidupan sehari-hari, bahkan untuk penggunaan di rumah, seperti asisten seluler Siri dan Alexa atau aplikasi pengenalan wajah, seperti sistem yang digunakan oleh pemerintah Argentina, seperti ANSES (National Social ). Administrasi Keamanan “Administración Nacional de la Seguridad Social” dan AFIP (Administrasi Pendapatan Negara Federal “Administración Federal de Ingresos Públicos”).

Penulis Stuart Russell dan Peter Norvig, dua akademisi klasik dalam ilmu komputer, mendefinisikan “jenis kecerdasan buatan” dalam kategori berikut menurut penerapannya:

  • sistem yang “berpikir” seperti manusia (misalnya jaringan saraf tiruan).
  • Sistem yang bertindak seperti manusia (misalnya robot).
  • Sistem yang mempelajari dan menghasilkan informasi baru (misalnya sistem pakar).

Pada cabang sistem yang meniru pemikiran manusia dalam kategori yang disebutkan di atas , kami melihat dua teknik berturut-turut yang paling banyak digunakan: Algoritme pembelajaran mendalam dan pembelajaran mesin.

Dapat dikatakan bahwa pembelajaran mesin memiliki satu sisi yang disebut Pembelajaran Mendalam. Meskipun kedua teknik tersebut mengacu pada sistem yang dapat belajar sendiri, pembelajaran mendalam lebih kompleks dan canggih, serta lebih otonom, yang berarti bahwa setelah sistem diprogram, intervensi manusia menjadi minimal.

Lebih berbahaya daripada yang terkenal.” berita palsu”, “kepalsuan mendalam” adalah video yang telah dimanipulasi menggunakan teknik kecerdasan buatan seperti dikutip. Hasilnya sangat realistis.

Contoh lainnya adalah Deepfakeapp, yang diterbitkan sebagai aplikasi yang memungkinkan pemula komputer mana pun untuk memanipulasi video. publikasi gambar intim.

Pada tahun 2010, sebuah video di mana Barak Obama diduga menyebut Donald Trump idiot menyebar ke seluruh dunia. Itu adalah hoax dimana aktor Jordan Peele dan CEO Buzzfeed Jonah Peretti mencoba meningkatkan kesadaran tentang bahaya informasi yang tidak terverifikasi dan Deepfakes. Apa pun kasusnya, salah satu langkah pertama dalam menyelidiki asal muasal video atau gambar adalah memeriksa sumbernya: siapa pengirimnya? Siapa yang menandatanganinya? Apakah ini dapat diandalkan? Mengikuti jalur yang disebut Deepfake, melihat di mana video tersebut pertama kali dibagikan dan siapa yang memublikasikannya adalah beberapa langkah dasar yang tidak memerlukan pengetahuan tingkat lanjut, hanya akal sehat.

 

Baca juga : Forensik Keamanan Siber Seni Menjadi Detektif Digital

 

Pada tahun 2010, produk ini diklasifikasikan sebagai “produk bertenaga AI pertama”. kejahatan’ ditemukan dan dituntut di Inggris Raya. Sebuah artikel pendek yang diterbitkan oleh Wall Street Journal berbicara tentang sekelompok penjahat dunia maya yang berhasil menyamar sebagai kepala sebuah perusahaan energi dan menuntut transfer cepat sebesar 243.000 euro, yang merupakan metode penipuan bagi mereka.

CEO perusahaan tersebut diduga mengira dia sedang menelepon CEO perusahaan induk, yang meminta uang kepadanya untuk seorang tersangka jurnalis di Hongaria. Penjahat dunia maya membuat permintaan tersebut sangat mendesak dan mengatakan bahwa uang tersebut harus ditransfer dalam waktu satu jam. Dalam pernyataan selanjutnya, korban bahkan mengatakan bahwa dia mendengar sedikit aksen Jerman dari bosnya dan suaranya.

Prediksi untuk jenis serangan ini tidak terlalu menggembirakan: rekaman audio dari orang-orang tingkat tinggi diperlukan untuk melatih algoritme sangat mudah didapat: wawancara TV, radio, jejaring sosial, dan suara WhatsApp, jika Anda memiliki menit rekaman yang cukup agar algoritme dapat mengganti suara apa pun dengan suara orang yang ingin Anda personalisasi.

Bagaimana kami melakukannya. . mengkonfirmasi “pengakuan” palsu yang dibuat dengan tembakan ini? Bagaimana kita bisa mengatakan bahwa tidak ada seorang pun yang mengatakan apa yang kita dengar? Apakah video yang menunjukkan keberadaan seseorang yang diduga berada di tempat yang sedang diupayakan untuk membebaskannya berlaku untuk teknik ini?

Dalam konteks investigasi kriminal, kita perlu mulai meminta pendapat teknis dari pakar ilmiah. Kita tidak bisa lagi hanya mengandalkan gambar dan video sebagai bukti. Analisis masa depan kita harus mencakup perolehan alat pencitraan dan video forensik, sama seperti hampir semua lembaga investigasi saat ini paham bahwa alat diperlukan untuk menganalisis perangkat seluler.

 

Baca juga : AR Masa Depan Desain Perhiasan 

 

Dan apa yang terjadi jika kita menggunakan teknologi ini dalam robotika?

Bagaimana apakah kita menangani kejahatan? “tanggung jawab” atau “atribusi” bila dilakukan oleh robot? Robot tidak lain adalah sebuah mesin (perangkat keras) yang berisi sistem operasi (perangkat lunak) dan menjalankan fungsi dengan menggunakan berbagai algoritma. Banyak kemajuan telah dicapai sejak diperkenalkannya lengan robotik pertama untuk menangani material.

Salah satu bidang yang menjadi perhatian terbesar dalam industri hukum adalah tanggung jawab perdata. Dengan kata lain, kewajiban untuk memberikan kompensasi kepada pihak ketiga atas kerusakan yang tidak disengaja. Masalahnya adalah berdasarkan undang-undang saat ini, robot tidak bertanggung jawab atas tindakan atau kelalaian yang dapat menyebabkan kerugian pada pihak ketiga. Hakim menilai manusia, bukan robot, apalagi algoritma.

Tampaknya masuk akal jika pihak yang bertanggung jawab adalah “produsen”, namun seperti yang dibahas dalam perdebatan hukum internasional mengenai subjek ini, produsen bertanggung jawab atas kerugian produk hanya jika produk tersebut cacat.

Bagaimana jika kerusakan yang ditimbulkan bukan disebabkan oleh cacat produksi? Bagaimana jika hal ini disebabkan oleh aturan yang dipelajari bot melalui pembelajaran mendalam dan teknik pembelajaran mesin? Apa yang terjadi jika seseorang “mengajar” atau, seperti yang kami katakan di atas, “melatih” perancang algoritme untuk berperilaku tidak diinginkan dan menyebabkan kerugian? Bagaimana jika robot menjadi target serangan cyber dan aturan pembelajaran serta penalarannya berubah?

Dunia mengevaluasi berbagai opsi saat memutuskan “status hukum” apa yang akan diterapkan pada robot dan algoritme. Contoh dari usulan tentang kemungkinan “sifat hukum” ini adalah pernyataan yang dibuat oleh María José Santos González, Koordinator Departemen Hukum Institut Nasional Keamanan Siber Spanyol, yang dibuatnya berdasarkan undang-undang saat ini. di Eropa. ringkasan dan analisis menarik dari bab-bab yang diketahui, ringkasan Tinjauan Berita Hukum Ibero-Amerika:

a) ” Robot sebagai manusia alami. Pilihan ini tampaknya tidak cukup, karena Pasal 30 KUH Perdata mengatur bahwa diperlukan kelahiran hidup untuk memperoleh kepribadian. Oleh karena itu hal tersebut tidak dapat terjadi pada robot. ”

b) “Robot sebagai badan hukum. Tampaknya juga kurang tepat jika robot memiliki kepribadian seperti ini, karena robot dapat berinteraksi langsung dengan lingkungan bahkan menimbulkan kerusakan, sedangkan dalam kasus badan hukum, perwakilan perusahaan selalu mengambil keputusan sebagai upaya terakhir. . dan karena itu bertanggung jawab. ”

c) “Robot seperti binatang. Fakta bahwa robot tidak memiliki dasar biologis atau genetik, atau bahwa robot modern tidak dapat memiliki perasaan, membuat robot tidak mungkin disamakan dengan binatang. ”

d) “Robot sebagai objek. Menurut KUHPerdata khususnya pada pasal 333, benda adalah benda mati yang tidak mempunyai kehidupan, ciri-ciri yang tidak dimiliki robot, karena dapat bergerak dan berinteraksi dengan lingkungan”

Karena baik robot maupun algoritmanya tidak termasuk dalam salah satu kategori ini, apakah permasalahannya memerlukan kerangka hukum baru? Haruskah kita memikirkan kembali konsep kehidupan, seperti yang disarankan beberapa orang?

Mari kita bayangkan sejenak robot atau algoritma sebagai subjek hukum. Apa hukumannya? Siapa yang menerapkannya? Dimana data disimpan “matikan” Sekaranglah waktunya untuk berpikir dan berimajinasi.

Pembaca yang budiman! Setelah gambaran umum mengenai kemungkinan perkembangan dari banyak celah hukum yang ada, beberapa di antaranya telah kami bahas, dan penerapannya sehari-hari: Apakah Anda masih yakin bahwa AI adalah masa depan? Apakah menurut Anda kami siap menggunakannya dalam penelitian? Apakah menurut Anda kami siap menganalisis kejahatan yang dilakukannya? Dan mencegahnya?