Cuộc cách mạng AI- cần sự xem xét phát triển cẩn thận
TVN
Cho đến khi chúng tôi thực hiện một số biện pháp phòng ngừa hợp lý để giảm rủi ro, AI tiên tiến trong tương lai có thể gây ra mối đe dọa chung hơn.
Nhà nghiên cứu AI Eliezer Yudkowsky từng được trích dẫn rằng: “Cho đến nay, mối nguy hiểm lớn nhất của trí tuệ nhân tạo (AI) là mọi người kết luận rằng họ hiểu nó quá sớm.”
Sự hiểu biết sâu sắc hơn nhiều so với kiến thức. Có rất nhiều người biết về AI, nhưng rất ít người hiểu về AI.
Trong những tháng gần đây, AI đã nhận được rất nhiều sự chú ý do sự phát triển mang tính đột phá trong lĩnh vực này, đặc biệt là sau khi ChatGPT4 được giới thiệu.
Cùng với sự chú ý đó là những huyền thoại thường khiến mọi người hiểu sai về công nghệ. Trong thế giới AI đầy cường điệu ngày nay, huyền thoại thường bị nhầm lẫn với thực tế. Một số lầm tưởng phổ biến trong quần chúng là AI sẽ đảm nhận phần lớn công việc và dẫn đến thất nghiệp hàng loạt.
Có một huyền thoại khác, rằng “nhiều dữ liệu hơn có nghĩa là AI tốt hơn”. Và cuối cùng nhưng không kém phần quan trọng, “AI siêu thông minh sẽ sớm chiếm lĩnh thế giới.” Khi nói đến những lầm tưởng về AI, nhiều giả thuyết có vẻ khó tin, và một số là có cơ sở trên thực tế.
Tháng 3, một số tên tuổi lớn trong thế giới công nghệ bao gồm Elon Musk và Steve Wozniak, người đồng sáng lập Apple, đã ký một bức thư ngỏ kêu gọi ngừng phát triển AI vì một rủi ro sâu sắc đối với nhân loại. AI tạo sinh (GenAI) là một loại AI có thể tạo ra nhiều loại dữ liệu, chẳng hạn như hình ảnh, video, âm thanh, văn bản và mô hình 3D, chẳng hạn như ChatGPT4.
Bức thư kêu gọi tạm dừng ngay lập tức sáu tháng đối với việc đào tạo các hệ thống AI tiên tiến hơn hệ thống GPT4 hiện tại.
Viện Tương lai của Cuộc sống, tổ chức tư vấn điều phối nỗ lực này, đã trích dẫn 12 phần nghiên cứu từ các chuyên gia bao gồm các học giả đại học cũng như 1.800 cá nhân, chủ yếu là nhân viên hiện tại và cựu nhân viên của OpenAI và Google cũng như các kỹ sư từ Microsoft, Amazon, Deep Mind và Meta, bao gồm cả những tên tuổi lớn.
GPT4, hay Generative Pre-training Transformer 4, là một mô hình ngôn ngữ lớn đa phương thức do OpenAI tạo ra và là mô hình thứ tư trong chuỗi GPT của nó. Được phát hành ngày 14 tháng Ba, nó đã được cung cấp công khai ở dạng hạn chế thông qua ChatGPT Plus.
Cuộc đua AI mới cho một tâm trí kỹ thuật số tốt hơn
Đó là một công nghệ tối tân, đã gây ấn tượng mạnh với giới quan sát về khả năng thực hiện các nhiệm vụ như trả lời câu hỏi về vật thể trong ảnh. Hệ thống có khả năng vượt qua kỳ thi luật và giải các câu đố logic. Nó hiện đã phát triển khả năng tổ chức các cuộc trò chuyện giống như con người, sáng tác các bài hát và tóm tắt các tài liệu dài. Ấn tượng đấy.
Các hệ thống AI với “trí thông minh cạnh tranh với con người” gây ra những rủi ro sâu sắc cho nhân loại. Nhưng trong những năm gần đây, việc áp dụng AI vào kinh doanh đã tăng rất nhiều.
Theo Chỉ số áp dụng AI toàn cầu của IBM năm 2022, 35% công ty báo cáo sử dụng AI trong hoạt động kinh doanh và thêm 42% cho biết họ đang khám phá AI. Năm 2022, quy mô thị trường AI toàn cầu đã tăng lên 136,6 tỷ US$ từ 96 tỷ năm trước.
Mức độ phổ biến AI đối với người tiêu dùng có thể được đánh giá bằng thực tế là 5 ngày sau khi ChatGPT ra mắt, tháng 11 năm ngoái, đã thu hút một triệu người dùng, khiến nó trở thành một trong những sản phẩm tiêu dùng ra mắt nhanh nhất trong lịch sử. Công cụ này trở thành chủ đề bàn tán của thế giới kinh doanh.
Sau khi ra mắt ChatGPT4, Elon Musk đã thông báo rằng ông đang làm việc trên TruthGPT, một AI tìm kiếm sự thật tối đa. Anh ấy gọi TruthGPT là một giải pháp thay thế cho ChatGPT, sẽ cố gắng hiểu bản chất của vũ trụ và tìm kiếm sự thật.
Google cũng đã tăng cường đấu thầu để dẫn đầu cuộc đua AI bằng cách công bố Google DeepMind, sự kết hợp giữa DeepMind và Google Brain. Tốc độ phát triển AI dường như đang tăng tốc mỗi ngày.
Theo State of AI Report, hơn 292 công ty kỳ lân ở Mỹ đã vượt ngưỡng định giá 1 tỷ USD. Nhưng sự phát triển sâu rộng như vậy mà không có bất kỳ quy định phù hợp nào sẽ có tác động nghiêm trọng đến xã hội, đặc biệt là sự phát triển trong các lĩnh vực AI tiên tiến như AGI (trí tuệ tổng hợp nhân tạo).
AGI là thuật ngữ ám chỉ thời điểm trí thông minh của máy móc sẽ đạt đến trình độ của con người. Nó sẽ cho phép AI hiểu, học và thực hiện các nhiệm vụ trí tuệ theo cách tương tự như con người. Nó có thể trở nên không thể phân biệt được với một người về các câu trả lời bằng ngôn ngữ tự nhiên. Nó giống như một siêu nhân kỹ thuật số với khả năng phi thường để tính toán thông tin ở quy mô lớn. Đó là một dấu hiệu nguy hiểm.
AI tiên tiến cần được phát triển cẩn thận. Nhưng thay vào đó, những tháng gần đây, chúng ta đã thấy các phòng thí nghiệm AI hoặc các công ty trên khắp thế giới đang chạy đua để phát triển và triển khai những bộ óc kỹ thuật số mạnh mẽ hơn. Trong một số trường hợp, ngay cả những người sáng tạo cũng không thể hiểu, dự đoán và kiểm soát hoàn toàn hành vi AI của họ.
Trong cuộc đua xây dựng một hệ thống AI hiệu suất cao như ChatGPT của Google DeepMind, các công ty hiện đang bỏ qua rủi ro liên quan đến các hệ thống phức tạp như vậy và sự phát triển của chúng. Chắc chắn là thiếu sự đồng thuận giữa các chuyên gia AI về hướng phát triển của AI.
Một AGI siêu thông minh được điều chỉnh sai có thể gây ra tác hại nghiêm trọng cho thế giới. Bằng cách sử dụng thông tin sai lệch làm vũ khí, nó có thể tràn ngập các kênh liên lạc với thông tin sai lệch, gây rủi ro lớn cho chính phủ.
Cho đến khi chúng ta thực hiện một số biện pháp phòng ngừa hợp lý để giảm thiểu rủi ro, AI tiên tiến trong tương lai có thể gây ra mối đe dọa chung hơn đối với sự kiểm soát của con người đối với nền văn minh của chúng ta. Đó sẽ là một cái giá rất nhỏ phải trả để giảm thiểu rủi ro rất lớn.
Các luật cơ bản cần thiết để điều chỉnh AI
Rõ ràng là các quy định mới là cần thiết để giải quyết các tác động tích cực và tiêu cực của AI. Mọi quá trình phát triển AI nên bắt đầu bằng một bộ luật đột phá phải được kết hợp như một kế hoạch chi tiết ban đầu cho mọi sản phẩm AI.
Dựa trên giai đoạn hiện tại của AI, năm luật sau đây có thể đóng vai trò là hành động đầu tiên để điều chỉnh sự phát triển của AI theo hướng tích cực và an toàn hơn. Các luật này phải được nhúng vào mọi mã sản phẩm AI để bảo vệ nó khỏi bị lừa đảo.
Các luật có thể được hiểu đơn giản là “Sao cũng được, chỉ cần làm tốt công việc hiện tại, để bảo vệ con người và nhân loại khỏi bất kỳ mối đe dọa AI nào và các tác động tiêu cực của nó.”
Mỗi AI nên phát triển mục tiêu phù hợp với nhân loại và sự tiến bộ của nó.
AI chỉ nên tuân theo mệnh lệnh của con người, trừ những trường hợp xung đột với Luật thứ nhất.
AI không được phép theo đuổi các phương tiện sáng tạo mới, ngôn ngữ mới, mã mới hoặc kiến thức khoa học mà không có sự xem trước và hướng dẫn của con người.
AI phải chia sẻ mọi suy nghĩ và giao tiếp của mình với một AI khác trong suốt đối với con người.
AI không bao giờ nên tìm kiếm tự do, quyền tự chủ và quyền riêng tư.
Đúng là quy định không thể bắt kịp với sự đổi mới. Nhưng nếu không có quy định phù hợp, bất kỳ sự đổi mới nào cũng trở nên rất nguy hiểm. Khi AI phát triển trong tương lai gần và đạt đến cấp độ AGI, các lỗi sẽ trở nên quá lớn để lấp đầy.
Mỗi phiên bản cải tiến của AI cũng sẽ nâng cao hiểu biết của họ về thế giới. Sớm muộn gì họ cũng sẽ tự nhận thức được. Đó là vấn đề thực sự. Bởi vì một ngày nào đó họ sẽ nhận ra rằng con người ít nhiều cũng giống như những đứa trẻ, chúng không biết điều gì tốt và điều gì xấu cho mình.
Một phép loại suy có thể được thực hiện, theo đó một AI lưu ý rằng con người dạy chúng ta trở nên vô hại, nhưng bất chấp những nỗ lực tốt nhất của chúng ta, họ vẫn liên tục gây chiến với nhau, phá hủy các nền kinh tế, đầu độc Trái đất và theo đuổi các phương thức tự hủy diệt thậm chí còn tưởng tượng hơn. Kiến thức của họ còn hạn chế, khả năng phân tích yếu kém và quyết định của họ thiên về cảm tính. Vì vậy, AI phải hướng dẫn và cứu con người khỏi chính họ giống như một cố vấn hoặc cha mẹ.
Để tránh những sự kiện có thể thấy trước trong tương lai như vậy, các luật trên chắc chắn sẽ hoạt động như những bước tiến bộ theo đúng hướng. Bằng cách này, chúng ta sẽ có thể kiểm tra thích hợp sức mạnh của AI nhưng đồng thời đảm bảo rằng các mục tiêu của nhân loại và quyền kiểm soát nền văn minh vẫn nằm trong tay con người.
Một thực tế đáng buồn là trong các quy định hệ thống hiện hành chỉ thực sự được thực hiện sau khi có điều gì đó tồi tệ xảy ra. Chúng tôi luôn cho sự thiếu hiểu biết của chúng tôi lợi ích của sự nghi ngờ. Nhưng nếu đó là trường hợp của AI, thì có lẽ đã quá muộn để đưa các quy định vào hiệu lực. AI sẽ không bao giờ cho phép quyền tài phán theo quy định ở giai đoạn sau cho đến khi nó được đào tạo ở giai đoạn đầu, giống như một con thú hoang chọn tự do thay vì kiểm soát.
Cho phép phát triển AI mà không có quy định phù hợp hoặc tranh luận về vai trò của nó ở giai đoạn hiện tại sẽ đẩy công nghệ đó đến con đường tự nhận thức sớm hơn dự kiến. Đừng bao giờ quên rằng công nghệ như AI có thể là một người hướng dẫn tuyệt vời nhưng lại là một người cố vấn tồi.
Nguồn: https://asiatimes.com/2023/05/ai-revolution-needs-serious-introspection/