Antarabangsa
Chatbot AI bawa risiko siber – NCSC
Pihak berkuasa Britain memberi amaran mengenai chatbot yang diintegrasi dan dipacu oleh kecerdasan buatan (AI) dengan kemungkinan penipuan boleh berlaku dalam perniagaan.
- Pihak berkuasa Britain memberi amaran mengenai chatbot yang diintegrasi dan dipacu oleh kecerdasan buatan (AI) dengan kemungkinan penipuan boleh berlaku dalam perniagaan.
- Dalam satu catatan blog yang akan diterbitkan hari ini, Pusat Keselamatan Siber Kebangsaan Britain (NCSC), berkata pakar ketika ini masih belum mampu menangani masalah keselamatan berkaitan algoritma yang boleh menjana interaksi bunyi manusia – yang juga digelar model bahasa besar atau LLM.
- NCSC berkata, ia boleh membawa risiko terutama apabila model sedemikian dimasukkan ke dalam elemen proses perniagaan organisasi.
- Ahli akademik dan penyelidik sebelum ini berulang kali mencari cara untuk menewaskan chatbot dengan melaksanakan arahan tertentu atau menipu bagi memintas benteng pertahanan mereka.
- Pihak berkuasa di seluruh dunia ketika ini sedang bergelut dengan kebangkitan LLM, seperti OpenAI’s ChatGPT, yang mana perniagaan sudah menggabungkan ke dalam pelbagai perkhidmatan, termasuk jualan dan penjagaan pelanggan.
UNITED KINGDOM: Pihak berkuasa Britain memberi amaran mengenai chatbot yang diintegrasi dan dipacu oleh kecerdasan buatan (AI) dengan kemungkinan penipuan boleh berlaku dalam perniagaan.
Dalam satu catatan blog yang akan diterbitkan hari ini, Pusat Keselamatan Siber Kebangsaan Britain (NCSC), berkata pakar ketika ini masih belum mampu menangani masalah keselamatan berkaitan algoritma yang boleh menjana interaksi bunyi manusia – yang juga digelar model bahasa besar atau LLM.
Alat yang dikuasakan AI dikesan sebagai penggunaan awal sebagai chatbot oleh sesetengah pihak, bukan hanya untuk menggantikan carian internet tetapi juga sebagai perkhidmatan pelanggan dan panggilan jualan.
NCSC berkata, ia boleh membawa risiko terutama apabila model sedemikian dimasukkan ke dalam elemen proses perniagaan organisasi.
Ahli akademik dan penyelidik sebelum ini berulang kali mencari cara untuk menewaskan chatbot dengan melaksanakan arahan tertentu atau menipu bagi memintas benteng pertahanan mereka.
Contohnya, chatbot berkuasa AI yang digunakan oleh bank mungkin tertipu untuk membuat transaksi tanpa kebenaran jika penggodam menstrukturkan pertanyaan dengan tepat.
“Perkhidmatan pembinaan organisasi yang menggunakan LLM perlu berhati-hati, sama seperti jika mereka menggunakan perpustakaan produk atau kod yang dalam versi beta (merujuk kepada keluaran perisian percubaan).
“Mereka mungkin tidak membenarkan produk itu terbabit dalam membuat transaksi bagi pihak pelanggan dan diharapkan perniagaan tidak akan mempercayainya sepenuhnya. Perhatian itu harus diberikan kepada LLM juga,” kata NCSC dalam satu catatan blognya.
Pihak berkuasa di seluruh dunia ketika ini sedang bergelut dengan kebangkitan LLM, seperti OpenAI’s ChatGPT, yang mana perniagaan sudah menggabungkan ke dalam pelbagai perkhidmatan, termasuk jualan dan penjagaan pelanggan.
Implikasi keselamatan AI ketika ini masih menjadi tumpuan dengan pihak berkuasa di Amerika Syarikat (AS) dan Kanada mengatakan mereka melihat penggodam mula menggunakan teknologi itu. – REUTERS
Sumber: Berita Harian