TỪ NHÀ KHOA HỌC VẬT LÝ CHO TỚI CÁC TAY THÔNG TUỆ VỀ MÁY TÍNH HAY KHOA HỌC KHÔNG GIAN ĐỀU LO NGẠI VỀ TRÍ THÔNG MINH NHÂN TẠO-AI (Artificial Intelligence)
Elon Musk Ông Chủ của SpaceX và Tesla Motor LÀ NGƯỜI GIÀU NHẤT HÀNH TINH CÓ THỂ ĐI LÊN TỪ TRÍ THÔNG MINH NHÂN TẠO VÀ ÓC SÁNG TẠO CỦA ÔNG
-----------------------------------------
KHI CỔ MÁY THÔNG MINH BIẾT TỰ HỌC
Các khoa học gia về máy tính như Ray Kurzweil tốt nghiệp Trường Công Nghệ Massacchussetts (MIT) vừa là một nhà đầu tư cùng nghiên cứu, ông cho rằng Trí Thông Minh Nhân Tạo (AI) có thể vượt qua trí thông minh cổ điển của con người và tiếp tục ‘tự học để thăng tiến’.
Suy nghĩ chuyện này các nhà nghiên cứu đều cho rằng “những chiếc tàu chạy bằng hơi nước không thể tự nó để trở thành những chiếc tàu hơi nước chạy tốt hơn. Tuy nhiên thời đại hôm nay AI lại rất khác do chúng có thể TỰ HỌC ĐỂ TỰ NÓ CÀNG THÔNG MINH HƠN!
NASA ĐÃ CUNG CẤP CHO ELON MUSK NHIỀU GÓI THẦU VỀ CHƯƠNG TRÌNH KHÔNG GIAN VÀ ÔNG TA CÀNG GIÀU HƠN
Elon Musk nhà doanh nghiệp về khoa học vi tính nhà đầu tư và kinh doanh chủ Tesla Motor và sau này cùng chủ của chương trình SpaceX sau này thành công với Space X với các lượt phi thuyền Falcon đưa lên trạm không gian. Bước đường từ doanh nghiệp xe hơi cho tới các hỏa tiễn Falcon kể từ ngày 27/5/2020 hãng hàng không vũ trụ của ông đã lần lượt đưa các phi hành gia Hoa Kỳ lên trạm không gian hiện bay quanh địa cầu.
TRỞ LẠI VẤN ĐỀ TRÍ THÔNG MINH NHÂN TẠO VÀ NHỮNG MỐI LO SỢ NẢY SINH NGAY TỪ TRONG TRÍ ÓC CỦA CÁC NHÀ BÁC HỌC ĐẶC BIỆT Stephen Hawking ông đã nghĩ gì kể cả Musk cũng đã lo sợ viễn ảnh tương lai ra sao về AI? (1)
Có một lần cách đây 6 năm (2015) bác học Hawking đã cùng Elon Musk đã cùng nhà đồng sáng lập Apple là Steve Wozniak cùng với mấy mươi nhà nghiên cứu về robot cùng AI đã đưa ra một Lá Thư Cảnh Báo cuối cùng về sự nguy hiểm nói khác đi về mối họa tiềm ẩn của tương lai về thế hệ Robot cùng AI.
Trong Lá Thư Cảnh Báo đồng ký tên đó có đoạn:
...Môt ngày nào đó chúng ta có thể mất kiểm soát các hê thống Thông Minh Nhân Tạo (AI) do sự gia tăng của Siêu Trí Tuệ nó sẽ bất tuân lệnh con người. Rồi các hệ thống như thế sẽ đe dọa loài người. Do sao mà tình huống này có thể phát sinh? Chúng ta đã có đầu tư hợp lý nào để nghiên cứu và hiểu rõ các tình trạng nguy hiểm đó sẽ xảy ra trong nay mai hay chưa? Chúng ta có dự phòng khả năng nào đó đối phó với một dạng siêu trí tuệ nguy hiểm hay ngay cả một sự xuất hiện của tình trạng "bùng nổ thông minh" hay không?
Bác Học Stephen Hawking TỪNG LO NGẠI VỀ TRÍ THÔNG MINH NHÂN TẠO GIEO HỌA CHO HẬU THẾ TRƯỚC KHI ÔNG QUA ĐỜI.
Theo ông:
TRÍ THÔNG MINH NHÂN TẠO: TIỀM ẨN MỐI HỌA TẬN DIỆT CON NGƯỜI
“Sự phát triển toàn diện của Trí Thông Minh Nhân Tạo đồng nghĩa với tận diệt loài người”
(Stephen Hawking)
Theo nhà Vật Lý Hawking, trí thông minh nhân tạo (artificial intelligence -AI) sẽ tự "tách biệt" ra khỏi sự kiểm soát của con người, tự thiết kế với tốc độ nhanh hơn chưa hề thấy, trong khi con người do hạn chế bởi "bộ giàn sinh học", bị ràng buộc bởi định luật tiến hóa của chính mình nên không tiến hóa kịp robot và ....gì nữa?
Trong tờ Journalthriveglobal.com có đoạn phân tích đáng lo sợ sau:
"Tế bào thần kinh có khả năng dẫn truyền 200 chu kỳ trong một giây nhưng máy tính có khả năng tới hàng tỷ chu kỳ trong một giây. Tốc độ dẫn truyền của tế bào não chỉ bằng một phần triệu của tốc độ dẫn truyền của cáp quang học mà thôi. Còn thêm một điều do bộ não con người bị gò bó trong hộp sọ và còn bị ảnh hưởng nhiều hội chứng quên lú lẫn và bị chết dần hồi trong khi Trí Thông minh Nhân tạo khi tiến ngang kịp bộ não con người lại còn không ngừng phát triển thêm lên...
Chó Robot mang theo súng liên thanh tự hành
Sự "chạy đua" không cân sức sẽ đi đến một điểm tận diệt: đầu óc thông minh nhân tạo dĩ nhiên không có vấn đề đạo đức vì nó là máy dĩ nhiên là VÔ HỒN. Chúng ta đang đi đến sự thách thức với tạo hóa và cuối cùng phần thua kém thuộc về con người.
CHÍNH KINH TẾ VÀ LỢI NHUẬN CON NGƯỜI ĐÃ NGĂN CẢN SỰ CẢNH BÁO CỦA NHÀ BÁC HỌC
Bác Học Stephan Hawking mất ngày 14/3/2018. Trước khi mất không lâu, nhà bác học này thật sự lo sợ về trí thông minh nhân tạo do nó sẽ "tự tách biệt ra tầm kiểm soát của con người, rồi từ đó chúng sẽ tự thiết kế và tạo tự gia tăng các tốc độ quá bất ngờ trong lúc con người bị giới hạn trong quy trình tiến hóa tự nhiên sinh học vì bản thân là sinh học ,từ đó không còn khả năng theo kịp với chúng , dĩ nhiên loài người sẽ bị nó thay thế mà cai trị lấy chúng ta "
Khi quan tâm đến cảnh báo này, Bác Học Stephen Hawking tin tưởng rằng thế giới digital và Internet sẽ đóng vai trò quan yếu trong vấn đề điều khiển trí thông minh do con người làm ra, ứng dụng, nhân rộng ra cùng cả vai trò "bốc lột" CẢ nó cả một quá trình bao lâu nay.
Nhưng nhà bác học này chua chát nhận ra rằng, tính tư hữu và quyền riêng tư đang làm khó khăn cho việc chận đứng mối đe dọa của TRÍ ÓC NHÂN TẠO sắp sửa mang lại và phủ chụp lên xã hội con người bao đe dọa khôn lường cùng không thể tưởng tượng ra trước được.
Nay Bác Học Hawking đã qua đời. Nhà vật lý tài năng như Elon Musk đang say sưa và thành công với chương trình không gian SpaceX cũng như kỹ nghệ xe hơi của ông đang thịnh hành... Cũng như bao khoa học gia khác trên các lĩnh vực quân sự hay dân sự tất cả càng lúc càng lệ thuộc vào Trí Thông Minh Nhân Tạo để đi đến các thành quả mau hơn nhiều hơn, thành công hơn.
Thế thì tại sao chính những ‘cha đẻ’ của khoa học vật lý của TRÍ THÔNG MINH NHÂN TẠO lại SỢ HẢI TRÍ THÔNG MINH NÀY?
Trong một cuộc phỏng vấn chính Elon thố lộ thêm rằng:
-Khi trí thông minh nhân tạo AI tiến đến một điểm trong tương lai gần là thông minh hơn con người với một tỷ lệ nào đó; chúng ta lấy thí dụ tỷ lệ giữa người và mèo hiện tại (mèo là ta) và có thể lớn hơn nữa; ông nhấn mạnh
CHÚNG TA LÚC NÀY PHẢI BẮT ĐẦU CẨN TRỌNG VỚI SỰ PHÁT TRIỂN VỚI AI LÀ VỪA
Vào năm 2018 tại một hội nghị khoa học kỹ thuật tại Austin Texas người chủ của Tesla và SpaceX cũng tiên liệu về một tương lai của thứ gọi là Chuyện Gia AI của chính AI . Cho đến lúc đó chúng biết hơn cả những gì chúng làm và thông minh hơn cả sự thông minh hiện có của chúng. Theo Musk thì đây là một thảm nạn chinh phục ngay sự thông minh của con người do những robot này định nghĩa được sự thông minh của chúng rồi lại không ưa thứ máy nào thông minh hơn chúng
CON NGƯỜI KHÔNG CÓ CƠ
HỘI HỌC HỎI SAI LẦM VỚI AI (4)
Al Max Tegmark một giáo
sư vật lý tại Đại Học Công Nghệ MIT nói về sai lầm và học hỏi sai lầm nhưng đối
với AI thì con người KHÔNG CÓ CƠ HỘI ĐỂ HỌC HỎI SAI LẦM.
DO SAO?
Vị giáo sư này biện luận
rằng khi con người gặp tai nạn về hỏa hoạn từ đó chúng ta phát minh ra bình
chữa cháy. Gặp tai nạn xe hơi, chúng ta phát minh ra dây an toàn rồi đến túi
khí (air bag) cũng như đèn hiệu giao thông. Ông cho rằng đến kỷ nguyên của vũ
khí hạt nhân và nhất là Thông Minh Nhân Tạo thì loài người PHẢI CÓ KẾ HOẠCH
PHÒNG CHỐNG TRƯỚC ĐỂ SINH TỒN.
Tương tự, Nick Bostrom
một giáo sư tại Đại Học Oxford trong cuốn Superintelligence vào năm 2014 ông
cảnh báo:
-đối với TRÍ THÔNG MINH
SIÊU PHÀM (superintelligence) nếu đã vô hồn và không thân thiện nó sẽ biết cách CẢN TRỞ CON NGƯỜI NGĂN CHẬN HAY THAY THẾ ĐỂ DUY TRÌ 'SỞ THÍCH' CỦA CHÚNG
đến đây thì xem như số phận con người đã bị ĐỊNH PHẦN VÀO TAY CHÚNG.
Trong lúc thế giới đang lo sợ các nhà độc tài các lãnh đạo siêu cường tính toán sai lầm trong xung đột thế giới sẽ đẩy đưa nhân loại đến bờ vực của THẢM HỌA THẾ CHIẾN thì các nhà khoa học họ ĐÃ NGHĨ XA HƠN CHÚNG TA DO HỌ LO SỢ SỰ CẠNH TRANH QUÂN SỰ của CÁC CƯỜNG QUỐC, TỪNG BƯỚC XÂY DỰNG NÊN SỰ CẠNH TRANH GIỮA CÁC AI VỚI NHAU?
ĐẾN GIAI ĐOẠN NÀY CHÍNH TRÍ THÔNG MINH NHÂN TẠO CỦA CÁC QUỐC GIA THÙ ĐỊCH SẼ THAY THẾ CON NGƯỜI TÌM CÁCH RA TAY TRƯỚC VỚI TRÍ THÔNG MINH NHÂN TẠO CỦA ĐỐI PHƯƠNG ĐỂ GIÀNH CHIẾN THẮNG!
CHÍNH THỜI ĐIỂM ĐÓ MỚI LÀ THẢM HỌA THẬT SỰ TIÊU DIỆT LOÀI NGƯỜI
thời điểm đó không biết chính xác là bao lâu? nhưng cảnh báo của giới khoa học gia càng lúc càng rõ nét do sự cạnh tranh phát triển AI không còn giới hạn giữa các siêu cường càng làm cho chúng ta tin tưởng thảm họa đó ĐANG THÀNH HIỆN THỰC
DÙ SAO CHĂNG NỮA
KHÔNG AI HIỂU ĐIỀU NÀY HƠN CHÍNH CÁC NHÀ KHOA HỌC HIỂU
Thiết nghĩ, đây có thể tạm thay cho phần kết luận./.
Đinh Hoa Lư
edition 20/10/2022
***
sources
(1) Don't Let Artificial Intelligence Take Over, Top Scientists Warn
(2) FIND WHAT ELON MUSK SAID ABOUT REAL WORLD AI
(3) Elon Musk: ‘Mark my words — A.I. is far more dangerous than nukes’
(4) VOX: WHY ELON MUSK FEARS OF AI
No comments:
Post a Comment