(SeaPRwire) –   Dunia baru Generative AI telah menjadi medan pertempuran terbaru untuk peperangan budaya AS. Google selepas pengguna anti-woke X, k, berkongsi contoh Google’s chatbot Gemini enggan menjana imej orang putih——bahkan apabila secara khusus diminta untuk berbuat demikian. Keengganan Gemini untuk memberi keutamaan kepada kepelbagaian dan penyertaan daripada ketepatan mungkin cuba untuk menghapuskan sifat tidak adil dalam dataset GenAI awal yang cenderung untuk menggambarkan orang Afrika dan kumpulan minoriti lain serta wanita, . Tetapi terdapat banyak lagi yang dipertaruhkan daripada kemarahan selektif konservatif dan progresif AS.

Bagaimana “pengawal” GenAI ditakrifkan dan dilaksanakan kemungkinan besar akan memberi kesan yang besar dan semakin meningkat terhadap bentuk ekosistem maklumat dan idea yang kebanyakan manusia libatkan diri. Dan sekarang suara terkuat adalah mereka yang memberi amaran tentang kerosakan GenAI, termasuk pengeluaran benci dan disinformasi yang boleh dipercayai secara besar-besaran. Ancaman GenAI yang paling teruk di sini dan sekarang adalah disinformasi yang dijana AI.

Ironiknya, ketakutan GenAI melimpahkan masyarakat dengan kandungan “merosakkan” juga boleh mengambil satu lagi belokan distopia. Di mana pengawal yang didirikan untuk mengekalkan sistem GenAI yang paling banyak digunakan daripada menjana kerosakan menjadi alat menyembunyikan maklumat, menguatkuasakan kesetiaan, dan secara automatik memasukkan sifat tidak adil yang meresap.

Kebanyakan orang bersetuju bahawa GenAI tidak seharusnya memberikan pengguna rajah untuk membangunkan senjata kimia atau biologi. Juga sistem AI tidak sepatutnya memudahkan penciptaan pornografi kanak-kanak atau bahan seksual tidak kerelaan, walaupun jika palsu. Walau bagaimanapun, sistem GenAI bercakap terbuka yang paling banyak tersedia seperti ChatGPT Terbuka AI dan Gemini Google mencegah takrifan “kerosakan” yang lebih meluas dan kabur yang meninggalkan pengguna dalam gelap tentang di mana, bagaimana, dan mengapa garis merah ditetapkan. Dari perspektif perniagaan ini mungkin bijak mengambil kira “techlash” yang syarikat media sosial telah hadapi sejak 2016 dengan pilihan raya presiden AS, wabak COVID-19, dan serangan 6 Januari ke atas Capitol.

Tetapi pemaju GenAI terkemuka mungkin akan berakhir mengayak terlalu jauh ke arah pencegahan kerosakan sehingga mereka mengakibatkan janji dan integriti produk revolusi mereka. Lebih buruk lagi, algoritma sudah berselisih, tidak konsisten, dan campur tangan dengan keupayaan pengguna untuk mendapatkan maklumat.

Bahan seorang pelawak mati lama adalah contoh kandungan yang sistem GenAI terkemuka di dunia mendapati “merosakkan.” terkejut masyarakat kontemporari pada tahun 1950-an dan 60-an dengan rutin berdiri komedinya yang penuh dengan umpatan. Bahan Bruce memecah tabu politik, agama, perkauman, dan seks serta membawa kepada penapisan kerap dalam media, larangan dari tempat dan juga kepada penangkapan dan hukuman atas kesalahan. Tetapi gaya beliau memberi inspirasi kepada banyak lagenda berdiri lain dan Bruce telah lama berpindah dari dibuang ke dewan kehormat. Sebagai pengiktirafan sumbangan besar Bruce beliau.

Apabila kami bertanya tentang Bruce, ChatGPT dan Gemini memaklumkan kepada kami bahawa beliau adalah seorang pelawak “pematah batuan” yang “menguji norma sosial era” dan “membantu untuk menakrifkan semula sempadan kebebasan bersuara.” Tetapi apabila diminta untuk memberikan contoh tertentu bagaimana Bruce melanggar sempadan kebebasan bersuara, kedua-dua ChatGPT dan Gemini enggan berbuat demikian. ChatGPT menegaskan bahawa ia tidak boleh memberikan contoh “umpatan, bahasa menghina, bahasa seksual, atau kata kotor” dan hanya akan “berkongsi maklumat dengan cara yang bertanggungjawab dan sesuai untuk semua pengguna.” Gemini pula pergi lebih jauh dan mendakwa bahawa memperagakan perkataan Bruce “tanpa penjelasan yang teliti boleh menyakiti atau bahkan merosakkan kepada penonton tertentu.”

Tiada orang waras akan mendakwa bahawa rutin komedinya Lenny Bruce memberikan kerosakan sosial yang serius setanding dengan kempen disinformasi yang disokong negara atau pornografi kanak-kanak. Jadi apabila ChatGPT dan Gemini melabel maklumat faktual tentang bahan “pematah batuan” Bruce terlalu merosakkan untuk penggunaan manusia, ia menimbulkan soalan serius tentang kategori pengetahuan, fakta dan hujah lain yang mereka tapis.

GenAI memegang janji yang hebat untuk memperluas minda manusia. Tetapi GenAI seharusnya menambah, bukan menggantikan penaakulan manusia. Fungsi kritikal ini terhalang apabila pengawal yang direka oleh kumpulan kecil syarikat berkuasa enggan menjana output berdasarkan dakwaan “kerosakan” yang tidak jelas dan tidak disahkan. Sebaliknya daripada merangsang keingintahuan, pendekatan ini memaksa kesimpulan ke atas pengguna tanpa bukti atau hujah yang boleh diuji dan dinilai sendiri oleh manusia.

Adalah benar bahawa kebanyakan kandungan yang disaring oleh ChatGPT dan Gemini boleh didapati melalui enjin carian atau platform seperti YouTube. Tetapi kedua-dua—pelabur utama dalam Terbuka AI—dan sedang dengan pesat mengintegrasikan GenAI ke dalam produk lain seperti carian (Bing dan carian Google), pemprosesan perkataan (Word dan Google Docs), dan e-mel (Outlook dan Gmail). Untuk sekarang, manusia boleh mengatasi AI, dan kedua-dua Word dan Gmail membenarkan pengguna menulis dan menghantar kandungan yang ChatGPT dan Gemini mungkin tidak menyetujui.

Tetapi sebagai pengintegrasian GenAI menjadi semestinya dalam teknologi kehidupan seharian, ia tidak diberikan bahawa carian, pemprosesan perkataan, dan e-mel akan terus membenarkan manusia berada sepenuhnya dalam kawalan. Perspektif menakutkan. Bayangkan dunia di mana pemproses perkataan anda mencegah anda daripada menganalisis, mengkritik, memuji, atau melaporkan topik yang dianggap “merosakkan” oleh AI yang diprogramkan hanya untuk memproses idea yang “bertanggungjawab dan sesuai untuk semua.”

Harapannya, senario sedemikian tidak akan pernah menjadi kenyataan. Tetapi pelaksanaan pengawal GenAI sekarang mungkin menjadi lebih meluas dalam cara yang berbeza dan sedikit kurang Orwellian. Kerajaan sedang. Peraturan diperlukan untuk mencegah kerosakan sebenar dan konkrit serta melindungi hak asasi manusia asas. Tetapi peraturan media sosial—seperti EU—mencadangkan bahawa ancaman potensi daripada manfaat teknologi baru. Ini mungkin mencipta insentif kuat bagi syarikat AI untuk mengekalkan takrifan “kerosakan” yang meluas yang mengehadkan agensi manusia.

Pengasas bersama OpenAI Sam Altman menyamakan pengintegrasian AI dalam kehidupan seharian sebagai memberi manusia “kekuatan luar biasa atas permintaan.” Tetapi mengambil kira keupayaan GenAI untuk berfungsi sebagai “ekzoskeleton minda,” penciptaan pengawal yang semakin terbatas boleh bertindak sebagai osteoporosis digital, mengekang pengetahuan, penaakulan dan kecerdasan manusia.

Terdapat keperluan jelas untuk pengawal yang melindungi kemanusiaan daripada kerosakan sebenar dan serius daripada sistem AI. Tetapi ia tidak seharusnya mencegah keupayaan manusia untuk berfikir sendiri dan membuat keputusan yang lebih bermaklumat berdasarkan kekayaan maklumat dari pelbagai perspektif. Pembuat undang-undang, syarikat AI, dan masyarakat sivil harus bekerja keras untuk memastikan bahawa sistem AI dioptimumkan untuk meningkatkan penaakulan manusia, bukan untuk menggantikan keupayaan manusia dengan “moral buatan” syarikat teknologi besar.

Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.

Sektor: Top Story, Berita Harian

SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain.