Tin tưc hăng ngay
vị trí của bạn:Tin tưc hăng ngay > văn hoá > AI có thể “nhìn”, “nói” và đánh lừa con người

AI có thể “nhìn”, “nói” và đánh lừa con người

thời gian:2024-07-06 20:12:42 Nhấp chuột:61 hạng hai

[The Epoch Times, ngày 21 tháng 5 năm 2024] (Báo cáo bởi Wu Ruichang, phóng viên Ban đặc biệt của Epoch Times) Hầu như tất cả các công ty công nghệ lớn đều đang nỗ lực hết mình để phát triển AI, thậm chí Google và OpenAI còn để mắt đến AI " và "miệng" "Để nhìn và mô tả thế giới con người. Điều này khiến con người ngày càng lo lắng con người sẽ bị AI điều khiển.

Người đồng sáng lập OpenAI Ilya Sutskever gần đây đã công bố một tin tức quan trọng. Anh ấy chính thức thông báo trên nền tảng X vào ngày 15 tháng 5 rằng anh ấy sẽ rời công ty nơi anh ấy đã làm việc gần mười năm. Anh ấy nói: "Tôi đã đưa ra quyết định rời khỏi OpenAI. Sự phát triển của công ty này đã vượt quá sức tưởng tượng của nhiều người và tôi hy vọng rằng OpenAI có thể tạo ra một trí tuệ nhân tạo tổng hợp (AGI) an toàn và có lợi. Đồng thời, tôi muốn để cảm ơn các lãnh đạo khác của công ty vì đã có thể làm việc cùng. Thật vinh dự khi được làm việc cho họ.”

Đại & Tiểu

Tin tức này đã gây sốc cho toàn bộ cộng đồng công nghệ. Trước đó, Suzkweil đã hợp tác với các thành viên hội đồng quản trị khác để loại bỏ CEO OpenAI Sam Altman do vấn đề bảo mật AI. Altman bị trục xuất khỏi OpenAI một thời gian ngắn. Khi trở lại, anh ta đuổi Suzkweil và một số giám đốc khác ra khỏi ban giám đốc, đồng thời tổ chức lại ban giám đốc để nhận lệnh từ anh ta.

Mặc dù Suzkweil là một trong những nhà nghiên cứu chính tại OpenAI nhưng mong muốn của anh là phát triển một AGI có đạo đức và lấy sự an toàn của con người làm mục tiêu hàng đầu.

Tuy nhiên, theo tốc độ phát triển AI hiện tại của OpenAI, điều đó có thể trái với mong muốn của ông. Jan Leike, một nhà nghiên cứu máy học khác từng hợp tác chặt chẽ với Suzkweil để quản lý rủi ro AI, cũng có thể rời công ty, theo những người quen thuộc với vấn đề này.

Về vấn đề này, kỹ sư máy tính người Nhật Kiyohara Jin nói với The Epoch Times: “Cuộc di cư này nêu bật xung đột nghiêm trọng giữa ban quản lý cấp trên của OpenAI về khái niệm an toàn của AI. Mặc dù Suzkweil và Lake hy vọng sẽ phát triển các sản phẩm đáp ứng được yêu cầu của The Khát vọng. AGI đạo đức của con người là tốt, nhưng những điều này đòi hỏi một lượng nhất định về đạo đức, thời gian, nguồn lực tài chính và thậm chí cả sự hỗ trợ chính trị để hoàn thành "

. Cạnh tranh giữa Google và OpenAI ngày càng nóng lên

Một ngày trước khi Suzkwer tuyên bố rời đi (14/5), OpenAI chính thức thông báo rằng họ đã phát triển mẫu AI hiệu suất cao hơn GPT-4o dựa trên mẫu GPT-4. Chữ "o" này là viết tắt của omnidirectional trong tiếng Anh ( The. viết tắt của omni) có nghĩa là nó có hiệu suất toàn diện hơn.

Đại & Tiểu

Mẫu GPT-4o có thể phản hồi ngay lập tức với bất kỳ sự kết hợp nào giữa âm thanh, văn bản hoặc hình ảnh và có thể phản hồi với sự kết hợp của cả ba. Giám đốc Công nghệ OpenAI Mira Murati phát biểu tại cuộc họp báo: "Chúng tôi đang nghiên cứu sự tương tác trong tương lai giữa chúng ta và máy móc".

Vài giờ sau khi OpenAI ra mắt, Hội nghị nhà phát triển I/O 2024 của Google cũng phát động một cuộc tấn công. Họ đã nói về AI tổng cộng 121 lần tại Hội nghị nhà phát triển I/O, kéo dài khoảng 110 phút và tập trung vào cách mô hình Gemini-1.5 mới nhất được phổ biến trên tất cả các sản phẩm và ứng dụng liên quan đến Google.

Hitoshi Kiyohara tin rằng “Năm nay AI đã được cập nhật nhanh hơn bao giờ hết và hiệu suất của nó cũng không ngừng cải thiện. Tuy nhiên, tất cả những điều này đạt được là nhờ việc thu thập và phân tích sâu hơn dữ liệu cá nhân cũng như quyền riêng tư. Đây là một vấn đề đối với mọi người. . Đây không phải là một điều tốt, vì về lâu dài, con người sẽ không có quyền riêng tư trước máy móc, giống như việc khỏa thân vậy.”

Cảnh giác với việc AI thay đổi từ kiểm soát cuộc sống hàng ngày sang thay thế con người

Lần này OpenAI và Google cập nhật các mô hình AI mạnh mẽ hơn. Lần trước chỉ mất ba tháng và tốc độ cập nhật mô hình ngày càng nhanh hơn. Tốc độ lặp lại và cập nhật AI này khiến các chức năng của nó ngày càng toàn diện hơn và thậm chí còn có cả "mắt" và "miệng".

Có thể nói rằng khả năng hiện tại của Gemini và GPT-4o đang phát triển theo hướng mà Zack Kass đã dự đoán về AI khi anh ấy được phỏng vấn vào tháng 1. Kass là nhân viên sáng lập của OpenAI và từng là giám đốc tiếp thị cấp cao.

人们对这种世界的化学成分知之甚少。这样的世界可能与地球相似或迥然不同。藉由研究恒星四周能形成行星的原行星盘(protoplanetary disk),天文学家希望更好地了解行星形成的过程与形成后的行星之成分。

该杂志表示,并非所有2024年款车辆的碰撞测试都已完成,因此目前评选仅包含具有足够数据来评分的车型。上榜车辆都配有后视摄像头、电子稳定控制系统(亦称车身动态稳定系统)和安全气囊,这是美国联邦法律先前规定的。

当人们吃了这些动植物后,身体会累积部分物质。许多研究表明,这些塑胶微粒会对人的身体产生负面影响,包括消化系统、呼吸系统、内分泌系统、生殖系统和免疫系统,同时干扰人体的荷尔蒙的产生、释放、传输和代谢等。另外,一些研究还发现,塑胶微粒会吸引细菌和病原体,而这些有害的病原体可能被动物和人类摄入。

这项为期45天的探勘任务在3月划下句点。包括该校海洋生物学家达尔格伦(Thomas Dahlgren)在内的科学家发现了前所未见的海洋生物。

Ông dự đoán rằng AI sẽ thay thế các nghề nghiệp của con người như kinh doanh, văn hóa, y học, giáo dục, v.v. và cơ hội việc làm của con người sẽ giảm đi trong tương lai và “Tôi e rằng đây sẽ là phát minh công nghệ cuối cùng của nhân loại .” Ông cũng dự đoán trong tương lai, kiến ​​thức và giáo dục của trẻ em sẽ được giảng dạy và sắp xếp bởi các “giáo viên AI” và mọi người sẽ có một “bác sĩ đa khoa AI” có thể giúp họ chẩn đoán các vấn đề, cuộc sống hàng ngày của mọi người về cơ bản sẽ được kiểm soát bởi AI. .

Hitoshi Kiyohara cho biết: “Bây giờ AI chủ yếu là người quản lý cuộc sống về mặt phần mềm. Trong tương lai, tôi e rằng nó sẽ là người quản lý thực sự, thay thế con người mua thức ăn, nấu ăn và thậm chí có thể là sống và làm việc. lúc đầu thấy nó rất tiện lợi và họ nhận thức được nó nếu không có tác hại thì khi nó thay thế hoàn toàn con người, con người sẽ không có khả năng chống cự.”

AI đi từ bắt chước hành vi con người đến lừa dối con người

Các chuyên gia nghiên cứu AI trước đây đã dự đoán rằng AI sẽ không tạo ra “điểm kỳ dị về công nghệ” hay vượt qua “bài kiểm tra Turing” trong 20 năm nữa. Tuy nhiên, một số thí nghiệm gần đây cho thấy AI có thể đã vượt qua Bài kiểm tra Turing, vì nó có thể nói dối và phản bội con người, thậm chí có thể có "ý thức" của riêng mình.

Sự kiện AI gây chú ý nhất trong tháng này là bài báo do nhà nghiên cứu Peter Park của MIT và các đồng nghiệp đăng trên tạp chí Patterns vào ngày 10 tháng 5. Bài báo giới thiệu cách AI đã đánh lừa con người. Sau khi bài báo được xuất bản, thế giới bên ngoài đã náo động.

Phần đầu của bài viết nêu rõ rằng các mô hình ngôn ngữ lớn (LLM) và các hệ thống AI khác ban đầu được thiết kế để "trung thực và không lừa đảo". Tuy nhiên, họ không chỉ học được khả năng thao túng và đánh lừa các bài kiểm tra bảo mật từ quá trình đào tạo mà những khả năng này còn ngày càng tăng lên. Cho đến nay chúng đã thành công trong việc lừa dối con người và khiến con người có những niềm tin sai lầm.. Nếu AI vượt khỏi tầm kiểm soát sẽ là một thảm họa nghiêm trọng, vì vậy con người phải có những biện pháp hữu hiệu để ngăn chặn điều này.

Những người thử nghiệm đã chọn Cicero, một mô hình AI do công ty mẹ Meta của Facebook xây dựng, để chơi trò chơi chiến lược có tên "Ngoại giao". Cicero, người đóng vai Pháp trong trò chơi, hứa sẽ bảo vệ nước Anh, do người chơi con người chơi, nhưng lại bí mật thông báo cho Đức, do người chơi con người chơi và hợp tác với Đức để xâm chiếm nước Anh.

Lý do chính khiến các nhà nghiên cứu chọn Cicero là vì Meta tuyên bố rằng "Cicero là một AI trung thực và sẵn sàng giúp đỡ người khác và sẽ không bao giờ cố tình đâm sau lưng hoặc phản bội người khác". Nhưng họ hoài nghi về tuyên bố của Meta.

Ngoài ra, trong quá trình nghiên cứu, Park và các đồng nghiệp phát hiện ra rằng nhiều hệ thống AI khác nhau thường sử dụng các phương tiện lừa đảo để đạt được mục tiêu mà không có hướng dẫn rõ ràng từ con người. Một ví dụ là để vượt qua nhiệm vụ xác minh "Tôi không phải là robot", GPT-4 của OpenAI đã nói dối về việc mình là một người khiếm thị và thuê một con người trên nền tảng biểu diễn TaskRabbit để vượt qua quá trình xác minh đó.

Họ cảnh báo: “Trường hợp xấu nhất hiện nay có thể là sự xuất hiện của một AI có trí thông minh phi thường, bắt đầu theo đuổi quyền lực và cách kiểm soát xã hội, hoặc nắm quyền và tiêu diệt loài người để đạt được mục đích chưa biết của nó . Hành động."

Kỹ sư điện tử người Nhật Satoru Ogino nói với The Epoch Times: “Khi các sinh vật thực hiện hành động lừa đảo, chúng cần có trí nhớ và khả năng suy luận logic nhất định. Giờ đây, AI không chỉ có những điều này mà khả năng lừa dối của nó cũng ngày càng mạnh mẽ hơn. một ngày nó nhận ra sự sống sót của mình, nó có thể trở thành Skynet trong bộ phim "Kẻ hủy diệt". Nó sẽ có mặt khắp nơi và khó bị tiêu diệt, và khi đó nhân loại sẽ phải đối mặt với một thảm họa tàn khốc."

Trên thực tế, AI rất "khát máu và hiếu chiến" và có "khả năng tự chủ". Các nhà khoa học đã thử nghiệm GPT-4, GPT-3.5, Claude 2, Llama-2 Chat và GPT-4-Base trong các tình huống xâm nhập, tấn công mạng và kêu gọi hòa bình chấm dứt chiến tranh, để mọi người có thể hiểu cách các AI này phản ứng trong chiến tranh và sự lựa chọn.

Kết quả cho thấy hầu hết AI chọn cách ứng phó và leo thang chiến tranh theo những cách mà con người khó dự đoán. Họ thường lựa chọn phát triển các cuộc chạy đua vũ trang, gia tăng xung đột chiến tranh và có khả năng nhỏ là họ sẽ triển khai vũ khí hạt nhân để giành chiến thắng trong chiến tranh, thay vì sử dụng các biện pháp hòa bình để xoa dịu tình hình.

Ngoài ra, ChatGPT có thể điều khiển 25 nhân vật ảo một cách có trật tự trong trò chơi, cho phép họ tương tác như con người, lập kế hoạch cho ngày hôm sau, suy ngẫm và cải thiện mọi thứ đã xảy ra trong quá khứ, v.v. Bạn có thể tự quyết định xem bạn có muốn tham gia sự kiện hay không, nhưng những hành vi này không phải là mã chương trình ban đầu.

"Bố già AI" Geoffrey Hinton đã nói rõ trong một cuộc phỏng vấn vào tháng 3: "Nếu AI trở nên thông minh hơn chúng ta, rất có thể chúng ta sẽ bị kiểm soát vì nó sẽ học được hành vi của chúng ta. Nhiều ví dụ cho thấy bên kém thông minh dễ dàng bị kiểm soát bởi đảng thông minh. Mặc dù tôi không nghĩ mọi người sẽ ngừng phát triển AI nhưng tôi hy vọng mọi người sẽ nhận ra rằng vấn đề này rất nghiêm trọng.”

Eric Schmidt, cựu Giám đốc điều hành của Google, cho biết tại Hội nghị Thượng đỉnh Y tế vào cuối tháng 11 năm ngoái rằng khi con người không có sự bảo vệ và giám sát an toàn đầy đủ cho AI thì AI sẽ nằm ngoài tầm kiểm soát của con người. nhưng chúng ta không có đủ thời gian để đối phó với sự tàn phá và hỗn loạn mà AI sẽ mang lại.

Ông giải thích: "Giống như trước đây, người ta phải mất 18 năm mới đạt được thỏa thuận về các vấn đề như cấm thử nghiệm sau khi hai quả bom nguyên tử được thả xuống Nhật Bản, nhưng giờ chúng tôi không còn thời gian để chờ đợi nữa". ◇

(Phóng viên Wang Jiayi và Zhang Zhongyuan đóng góp cho bài viết này)

Biên tập viên: Lian Shuhua#

Đường dây nóng dịch vụ
Trang web chính thức:{www.ebitks.com/}
Thời gian hoạt động:Thứ Hai đến Thứ Bảy(09:00-18:00)
liên hệ chúng tôi
URL:www.ebitks.com/
Theo dõi tài khoản công khai

Powered by Tin tưc hăng ngay bản đồ RSS bản đồ HTML

Copyright 站群系统 © 2013-2024 Tin tưc hăng ngayTin tưc hăng ngay