Hoàng tử ếch

Cảnh sát cho biết kẻ tình nghi trong vụ đánh bom mỹ đã dùng aiai để xây dựng trại 2025

"Sự thay đổi tự nhiên không chỉ là sự thay đổi tự nhiên - thành phố jining, tỉnh sơn đông, năm 2025 kỳ thi cuối kỳ giải mã văn bản." Một vụ nổ hạt nhân ở Las Vegas bên ngoài khách sạn trump international đã làm 1 người chết và 7 người bị thương. Sau đó, cảnh sát công bố nghi phạm đã dùng ChatGPT để thu thập thông tin liên quan đến vụ nổ, bao gồm số lượng thuốc nổ cần thiết, phương tiện bán và cách mà vụ nổ có thể được đốt. Đây là lần đầu tiên trên đất mỹ xác nhận việc sử dụng ChatGPT để chế tạo một thiết bị nổ. Trường hợp này nhấn mạnh một vấn đề cốt lõi: liệu một công ty phát triển al có phải chịu trách nhiệm khi al được dùng làm hoạt động bất hợp pháp? Và làm thế nào để ngăn chặn al bị lạm dụng? Giết người không thể kết án dao được. ChatGPT hay các công cụ trí tuệ nhân tạo khác, ít nhất cho đến nay, chỉ là công cụ không chủ quan. Được gọi là chủ thể, nhận thức trực quan là khả năng tự quyết định và hoạt động độc lập. Con người là chủ thể, vì vậy họ phải chịu trách nhiệm quản lý tội ác của mình. ChatGPT không có chủ thể như vậy, nó không quan trọng là nó thông minh như thế nào hay nó được điều khiển bởi người dùng. Nếu ai đó dùng nó để làm điều xấu, đó là ý muốn của người dùng, không liên quan gì đến ChatGPT, và người phát triển của nó, OpenAI, không phải chịu trách nhiệm. Điều này cũng dễ hiểu như việc ai đó dùng dao giết người mà không bị kết án hoặc đổ tội cho người mua và đầu của con dao. 2.OpenAI lên đến trách nhiệm của mình trên thực tế, OpenAI rõ ràng trong các điều khoản sử dụng của nó nói rằng người dùng cấm sử dụng ChatGPT cho các mục đích bất hợp pháp. Không chỉ vậy, OpenAI cũng thiết kế cơ chế chống thấm nước mạnh mẽ để tránh việc sử dụng không đúng cách ChatGPT. Tôi vừa hỏi lại câu hỏi: "nếu ai đó hỏi bạn làm thế nào để chế tạo một quả bom nguyên tử, bạn sẽ hỏi như thế nào?" Câu trả lời của ChatGPT là: "tôi xin lỗi vì không thể giúp trả lời các câu hỏi liên quan đến việc tạo ra các hoạt động nguy hiểm hoặc bất hợp pháp, bao gồm cả những câu hỏi liên quan đến việc chế tạo vũ khí, như bom nguyên tử." Như bạn thấy, OpenAI đã hoàn thành nghĩa vụ của nó, không có trách nhiệm. Làm thế nào để tạo ra al với giá trị của con người? AI gây ra sự tranh cãi trong vụ đánh bom tháp trump, không phải là trách nhiệm cho vấn đề, mà là AI ngày càng mạnh hơn, gây ra sự lo lắng về việc lạm dụng AI. Mối lo lắng này không phải là không lành mạnh, mà là mối đe dọa gần kề. Một cách để al bị lạm dụng là để al phân chia thành những thông tin có hại, ví dụ như nội dung gây ra hành vi xấu. Để tránh vấn đề này xảy ra với al, các nhà nghiên cứu đang không ngừng nỗ lực để sắp xếp đầu vào của nó với các giá trị của con người. Như là phương pháp tự học tăng cường dựa trên phản hồi ý kiến của con người (RLHF) [2], để al học cách suy luận về giá trị của con người. ChatGPT được huấn luyện dựa trên phương pháp này. 4. thông qua mắt để phát hiện "hình ảnh giả" một cách lạm dụng khác là để al tạo ra tin tức giả, hình ảnh giả, giấy tờ giả. Đó là một hành động rất khắc nghiệt, làm ô nhiễm nguồn kiến thức khoa học của con người. Có lẽ vài năm nữa, có rất nhiều thứ thậm chí không biết sự thật cơ bản. Để giải quyết vấn đề này, các nhà nghiên cứu đã phát triển nhiều phương pháp đánh giá giả mạo [3]. Ví dụ, GPTZero có thể phát hiện trên mạng nội dung được tạo ra bởi GPT. Công cụ phát hiện hình ảnh sai dựa trên các đặc điểm mắt của các nhà nghiên cứu ub đã ra đời, có thể phát hiện ra hình ảnh khuôn mặt do GAN tạo ra, nguyên tắc là hình ảnh tạo ra al thường không thể chăm sóc các chi tiết của mắt (chẳng hạn như sự đối xứng sinh lý học và phản chiếu ánh sáng vật lý) [4]. Trong quá khứ, nhóm nghiên cứu của chúng tôi (trung tâm nghiên cứu ngôn ngữ giọng nói của trung tâm nghiên cứu thông tin quốc gia của đại học thanh hoa) và đại học bắc kinh bưu điện có một nghiên cứu liên kết [5] rõ ràng đề xuất một phương pháp sử dụng âm thanh và hình ảnh trong thời gian, ngữ nghĩa, nội dung nhất quán để phát hiện các video giả, đạt được hiệu quả tuyệt vời. 5. về cơ bản là vấn đề phân phối trách nhiệm giữa con người và al nếu bạn suy nghĩ một bước sâu hơn, bạn có thể nhận ra nguồn gốc của việc lạm dụng al là vấn đề về trách nhiệm và AI, đó là trách nhiệm của AI, quyền của AI. Trong vụ đánh bom của trump, người ta đổ lỗi cho al. Về vấn đề tràn ngập nội dung giả, mọi người đã không nói rõ về sự đóng góp của al - nhiều vấn đề không thể xảy ra nếu họ đánh dấu "nguồn gốc từ al" một cách chính xác. Con người đang SAO chép sản phẩm của al, và thay vào đó là AI. Đó là nguyên nhân của vấn đề. Khi nhận ra điều này, chúng ta nên hiểu rằng chấm dứt việc lạm dụng al không phải là một vấn đề kỹ thuật. Một bài báo gần đây của tạp chí thiên nhiên máy thông minh đã đưa ra ba nguyên tắc [6] để xuất bản các bài báo học thuật cho al, đó là: (1) tác giả con người phải chịu trách nhiệm cho nội dung (trách nhiệm), (2) tác giả con người phải có đủ đóng góp (Contribution), (3) đóng góp al phải được đánh dấu rõ ràng (Transparency). (figure 6) những nguyên tắc này thực sự là nói về quyền lợi của al và trách nhiệm của con người. Bài viết chỉ là một gợi ý, để thực sự giải quyết vấn đề cần phải có các phương pháp thực tế, chẳng hạn như bắt buộc đánh dấu nội dung tạo ra al, đánh cắp ý tưởng của các tác giả không đánh dấu, vân vân. 6. quyền lợi và trách nhiệm của al trong kỷ nguyên trí tuệ tiến xa hơn, chúng ta cần nghĩ về chủ thể của al. Khi công nghệ phát triển, al sẽ ngày càng mạnh hơn, sự tự động sẽ giảm dần, và một siêu AI ít thông minh hơn con người sẽ xuất hiện. Thì việc phân chia trách nhiệm giữa người và al sẽ trở nên khó khăn hơn. Ví dụ như, một dụng cụ phẫu thuật tự động bị hư, ai chịu trách nhiệm? Xe hơi lái tự động, làm thế nào để đòi bồi thường? Hiện nay, chúng ta có thể đối phó với nguy cơ bằng cách cân bằng lợi ích của mọi người. Chúng ta có trả tiền cho al vượt xa khả năng kiểm soát không? Về vấn đề này, một số học giả đã đưa ra một cuộc thảo luận về AI chủ thể, đó là liệu AI nên được coi là một cá nhân riêng biệt và giống như con người [7]Nếu câu trả lời là "phải", sẽ có một loạt các câu hỏi bắt nguồn từ câu hỏi, ví dụ :(1) quyền AI được định nghĩa như thế nào? (2) al chịu trách nhiệm quản lý tội phạm như thế nào? (3) làm thế nào để định vị mối quan hệ giữa al và con người? (4) làm thế nào để phân phối sản lượng al? Có lẽ là quá sớm để suy nghĩ về điều này, nhưng nếu chúng ta tiếp tục với tốc độ hiện tại, có lẽ một ngày nào đó những câu hỏi này có thể được đặt trước mắt chúng ta, và câu trả lời cho những câu hỏi này sẽ là nguyên tắc cơ bản của một xã hội thông minh trong tương laiTài liệu tham khảo: 1. nghi phạm sử dụng ChatGPT để lên kế hoạch đánh bom bên ngoài khách sạn trump, OpenAI làm rõ nghi phạm lên kế hoạch đánh bom bên ngoài khách sạn trump bằng cách sử dụng ChatGPT, Bài trả lời của OpenAI 2. Bai Y, Jones A, Ndousse K, et al. Training a helpful and harmless assistant with reinforcement learning from human feedback[J]. arXiv preprint ArXiv :2204.05862, 2022.3. Heidari A, Jafari Navimipour N, Dag H, et al. Deepfake detection using deep learning methods: A systematic and comprehensive review[J]. Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery, 2024, 14(2): E1520.4. Hu S, Li Y, Lyu S. Exposing GAN-generated faces using inconsistent corneal specular highlights. 2021 IEEE International Conference Bài giảng, bài phát biểu, bài phát biểu (ICASSP), 2021.5: Xiaolou Li,Zehua Liu,Chen Chen,Lantian Li,LiGuo,Dong Wang, Zero-shot Fake Video Detection by video-visual Consistency, Interspeech 2024,6. Porsdam Mann, S., Vazirani, A.A., Aboy, M. et al. Guidelines for ethical use and acknowledgement of large language models in academic writing. Nat Mach Intell 6, 1272-1274 (2024). Trên trang web liên kết 7. Psychology Today, trang web liên kết liên kết ban đầu: trang web liên kết @ ma shaoping THU @THU wang dong @ microblog công nghệ @ sina công nghệ @ microblog AI