Cố Giáo Sư Nhà Vật Lý Anh, Stephen Hawking
Cho đến nay Trí Tuệ Nhân Tạo (Artificial Intelligence-AI) càng ngày càng được thế giới đề cập đến nhiều hơn và mức độ phát triển càng lúc càng tinh vi, phổ biến. Nhưng về mặt trái của nó, công luận bắt đầu nghe ngóng cùng báo động về những nguy cơ tiềm ẩn của trí tuệ nhân tạo rất to lớn và đây là điều không phải ‘nói cho có nói’ mà thôi.
Trước khi qua đời, Giáo Sư vật lý Anh Quốc là Stephen Hawking từng nói với đài BBC, cảnh báo loài người,: “Sự phát triển toàn diện về trí tuệ nhân tạo có thể cùng có ý nghĩa là kết thúc sự tồn tại của loài người.(The development of full artificial intelligence could spell the end of the human race.)
Kể từ lúc bác học Stephen Hawking còn sống hay sau này, chúng ta thấy nhà vật lý nổi danh này không hề đơn độc với suy nghĩ trên. Chính Elon Musks, người sáng lập Tesla và SpaceX, cùng ý nghĩa là người từng phát triển hay tận dụng về Trí Tuệ Nhân Tạo trong lĩnh vực khoa học kỹ thuật lại lo sợ về AI.
Tại một hội nghị về công nghệ có tên là Southwest Tech tại Texas, ông Musks đề cập đến mối lợi phát triển AI do chính AI... “
có khả năng tạo được nhiều hơn những gì mà chúng ta ước đoán chúng có khả năng gia tăng tốc độ theo cấp số nhân”
Chúng ta thừa nhận nền kinh tế thế giới đang cần tự động hóa để gia tăng sản lượng, trong đó chức năng đến từ có các thuật toán vi tính nay kinh tế thế giới từng giao cho AI. điển hình là những robot hiện nay. Điều lạ lùng, AI kiểm soát và thông thuộc luôn chuyện giới tính và chủng tộc rồi nay qua phương diện quân sự nó quán xuyến luôn cả vũ khí tự động có ý nghĩa là hoạt động không cần sự giám sát của con người...
Từ chuyện đó, các think tanks hay khoa học gia quốc tế bắt đầu biết lo sợ.
Vài lo sợ này mới chỉ là bước khởi đầu của các lo sợ mà thôi. Lý do, Trí Thông Minh Nhân Tạo CHƯA LỘ LIỄU RA HẾT NHỮNG NGUY HIỂM THỰC SỰ của nó.
LẠM DỤNG AI CÙNG LÚC LO SỢ AI PHẢI CHĂNG LÀ MÂU THUẪN
Dù sao, khi các cường quốc kinh tế và quân sự lúc đang cần và lạm dụng AI phải lường hết các bí ẩn tiềm tàng của nó ra sao? cùng lúc chuyên gia thế giới bắt đầu cảnh báo và lo sợ AI nhưng mặt khác các siêu cường phải thi đua phát triển AI rõ ràng là mâu thuẫn tự phát.
CÁC NHÀ BÁC HỌC THẾ GIỚI TỪNG NGHĨ GÌ VỀ TRÍ THÔNG MINH NHÂN TẠO
It is not the first time Musk has made frightening predictions about the potential of artificial intelligence — he has, for example, called AI vastly more dangerous than North Korea — and he has previously called for regulatory oversight (CNBC)
TẠI SAO THẾ?LÝ DO: MỐI NGUY HIỂM CỦA TRÍ THÔNG MINH NHÂN TẠO ngay từ bây giờ con người chưa thấy được hết, do sự đe dọa đó là mối nguy TIÊM ẨNCHO ĐẾN KHI...
Các khoa học gia về máy tính như Ray Kurzweil tốt nghiệp Trường Công Nghệ Massacchussetts (MIT) vừa là một nhà đầu tư cùng nghiên cứu, ông cho rằng Trí Thông Minh Nhân Tạo (AI) có thể vượt qua trí thông minh cổ điển của con người và tiếp tục ‘tự học để thăng tiến’.
Trong Lá Thư Cảnh Báo đồng ký tên đó có đoạn:
...Môt ngày nào đó chúng ta có thể mất kiểm soát các hê thống Thông Minh Nhân Tạo (AI) do sự gia tăng của Siêu Trí Tuệ nó sẽ bất tuân lệnh con người. Rồi các hệ thống như thế sẽ đe dọa loài người. Do sao mà tình huống này có thể phát sinh? Chúng ta đã có đầu tư hợp lý nào để nghiên cứu và hiểu rõ các tình trạng nguy hiểm đó sẽ xảy ra trong nay mai hay chưa? Chúng ta có dự phòng khả năng nào đó đối phó với một dạng siêu trí tuệ nguy hiểm hay ngay cả một sự xuất hiện của tình trạng "bùng nổ thông minh" hay không?
Trong tờ Journalthriveglobal.com có đoạn phân tích đáng lo sợ sau:
Sự "chạy đua" không cân sức sẽ đi đến một điểm tận diệt: đầu óc thông minh nhân tạo dĩ nhiên không có vấn đề đạo đức vì nó là máy dĩ nhiên là VÔ HỒN. Chúng ta đang đi đến sự thách thức với tạo hóa và cuối cùng phần thua kém thuộc về con người.
CON NGƯỜI KHÔNG CÓ CƠ HỘI HỌC HỎI SAI LẦM VỚI AI (4)
Al Max Tegmark một giáo sư vật lý tại Đại Học Công Nghệ MIT nói về sai lầm và học hỏi sai lầm nhưng đối với AI thì con người KHÔNG CÓ CƠ HỘI ĐỂ HỌC HỎI SAI LẦM.
DO SAO?
Vị giáo sư này biện luận rằng khi con người gặp tai nạn về hỏa hoạn từ đó chúng ta phát minh ra bình chữa cháy. Gặp tai nạn xe hơi, chúng ta phát minh ra dây an toàn rồi đến túi khí (air bag) cũng như đèn hiệu giao thông. Ông cho rằng đến kỷ nguyên của vũ khí hạt nhân và nhất là Thông Minh Nhân Tạo thì loài người PHẢI CÓ KẾ HOẠCH PHÒNG CHỐNG TRƯỚC ĐỂ SINH TỒN.
Tương tự, Nick Bostrom một giáo sư tại Đại Học Oxford trong cuốn Superintelligence vào năm 2014 ông cảnh báo:
-đối với TRÍ THÔNG MINH SIÊU PHÀM (superintelligence) nếu đã vô hồn và không thân thiện nó sẽ biết cách CẢN TRỞ CON NGƯỜI NGĂN CHẬN HAY THAY THẾ ĐỂ DUY TRÌ 'SỞ THÍCH' CỦA CHÚNG đến đây thì xem như số phận con người đã bị ĐỊNH PHẦN VÀO TAY CHÚNG.
Trong lúc thế giới đang lo sợ các nhà độc tài các lãnh đạo siêu cường tính toán sai lầm trong xung đột thế giới sẽ đẩy đưa nhân loại đến bờ vực của THẢM HỌA THẾ CHIẾN thì các nhà khoa học họ ĐÃ NGHĨ XA HƠN CHÚNG TA DO HỌ LO SỢ SỰ CẠNH TRANH QUÂN SỰ của CÁC CƯỜNG QUỐC, TỪNG BƯỚC XÂY DỰNG NÊN SỰ CẠNH TRANH GIỮA CÁC AI VỚI NHAU?
ĐẾN GIAI ĐOẠN NÀY CHÍNH TRÍ THÔNG MINH NHÂN TẠO CỦA CÁC QUỐC GIA THÙ ĐỊCH SẼ THAY THẾ CON NGƯỜI TÌM CÁCH RA TAY TRƯỚC VỚI TRÍ THÔNG MINH NHÂN TẠO CỦA ĐỐI PHƯƠNG ĐỂ GIÀNH CHIẾN THẮNG!
CHÍNH THỜI ĐIỂM ĐÓ MỚI LÀ THẢM HỌA THẬT SỰ TIÊU DIỆT LOÀI NGƯỜI
thời điểm đó không biết chính xác là bao lâu? nhưng cảnh báo của giới khoa học gia càng lúc càng rõ nét do sự cạnh tranh phát triển AI không còn giới hạn giữa các siêu cường càng làm cho chúng ta tin tưởng thảm họa đó ĐANG THÀNH HIỆN THỰC
DÙ SAO CHĂNG NỮA
No comments:
Post a Comment