Wednesday, October 19, 2022

TRÍ THÔNG MINH NHÂN TẠO (AI) CÒN NGUY HIỂM GẤP NHIỀU LẦN ĐẦU ĐẠN HẠT NHÂN




  Con người, sinh vật bị giới hạn do sự tiến hóa sinh học chậm chạp, không thể cạnh tranh và sẽ bị thay thế...

Cố Giáo Sư Nhà Vật Lý Anh, Stephen Hawking

                                             ***

CÁC NHÀ BÁC HỌC THẾ GIỚI TỪNG NGHĨ GÌ  VỀ TRÍ THÔNG MINH NHÂN TẠO


TỪ NHÀ KHOA HỌC VẬT LÝ CHO TỚI CÁC TAY THÔNG TUỆ VỀ MÁY TÍNH HAY KHOA HỌC KHÔNG GIAN ĐỀU LO NGẠI VỀ TRÍ THÔNG MINH NHÂN TẠO-AI (Artificial Intelligence)
Elon Musk Ông Chủ của SpaceX và Tesla Motor LÀ NGƯỜI GIÀU NHẤT HÀNH TINH CÓ THỂ ĐI LÊN TỪ TRÍ THÔNG MINH NHÂN TẠO VÀ ÓC SÁNG TẠO CỦA ÔNG



----------------------------------------- 


KHI CỔ MÁY THÔNG MINH  BIẾT TỰ HỌC 

Các khoa học gia về máy tính như Ray Kurzweil tốt nghiệp Trường Công Nghệ Massacchussetts (MIT) vừa là một nhà đầu tư cùng nghiên cứu, ông cho rằng Trí Thông Minh Nhân Tạo (AI) có thể vượt qua trí thông minh cổ điển của con người và tiếp tục ‘tự học để thăng tiến’.
 Suy nghĩ chuyện này các nhà nghiên cứu đều cho rằng “những chiếc tàu chạy bằng hơi nước không thể tự nó để trở thành những chiếc tàu hơi nước chạy tốt hơn.  Tuy nhiên thời đại hôm nay AI  lại rất khác do chúng có thể TỰ HỌC ĐỂ TỰ NÓ CÀNG THÔNG MINH HƠN!

NASA ĐÃ CUNG CẤP CHO ELON MUSK NHIỀU GÓI THẦU VỀ CHƯƠNG TRÌNH KHÔNG GIAN VÀ ÔNG TA CÀNG GIÀU HƠN 



 Elon Musk nhà doanh nghiệp về khoa học vi tính nhà đầu tư và kinh doanh chủ Tesla Motor và sau này cùng chủ của chương trình SpaceX  sau này thành công với Space X  với các lượt  phi thuyền Falcon  đưa lên trạm không gian. Bước đường từ doanh nghiệp xe hơi cho tới các hỏa tiễn Falcon kể từ ngày 27/5/2020 hãng hàng không vũ trụ của ông đã lần lượt  đưa các phi hành gia Hoa Kỳ lên trạm không gian hiện bay quanh địa cầu.

TRỞ LẠI VẤN ĐỀ TRÍ THÔNG MINH NHÂN TẠO VÀ NHỮNG MỐI LO SỢ NẢY SINH NGAY TỪ TRONG TRÍ ÓC CỦA CÁC NHÀ BÁC HỌC ĐẶC BIỆT Stephen Hawking ông đã nghĩ gì kể cả Musk cũng đã lo sợ viễn ảnh tương lai ra sao về AI? (1)

Có một lần cách đây 6 năm (2015) bác học Hawking đã cùng Elon Musk đã cùng nhà đồng sáng lập Apple là Steve Wozniak cùng với mấy mươi nhà nghiên cứu về robot cùng AI đã đưa ra một Lá Thư Cảnh Báo cuối cùng về sự nguy hiểm nói khác đi về mối họa tiềm ẩn của tương lai về thế hệ Robot cùng AI.

Trong Lá Thư Cảnh Báo đồng ký tên đó có đoạn:

 ...Môt ngày nào đó chúng ta có thể mất kiểm soát các hê thống Thông Minh Nhân Tạo (AI) do sự gia tăng của Siêu Trí Tuệ nó sẽ bất tuân lệnh con người. Rồi các hệ thống như thế sẽ đe dọa loài người. Do sao mà tình huống này có thể phát sinh? Chúng ta đã có đầu tư hợp lý nào để nghiên cứu và hiểu rõ các tình trạng nguy hiểm đó sẽ xảy ra trong nay mai hay chưa? Chúng ta có dự phòng khả năng nào đó đối phó với một dạng siêu trí tuệ nguy hiểm hay ngay cả một sự xuất hiện của tình trạng "bùng nổ thông minh" hay không?



Bác Học Stephen Hawking TỪNG LO NGẠI VỀ TRÍ THÔNG MINH NHÂN TẠO GIEO HỌA CHO HẬU THẾ TRƯỚC KHI ÔNG QUA ĐỜI.

Theo ông:

TRÍ THÔNG MINH NHÂN TẠO: TIỀM ẨN MỐI HỌA TẬN DIỆT CON NGƯỜI

 “Sự phát triển toàn diện của Trí Thông Minh Nhân Tạo đồng nghĩa với tận diệt loài người
(Stephen Hawking)

  Theo nhà Vật Lý Hawking, trí thông minh nhân tạo (artificial intelligence -AI) sẽ tự "tách biệt" ra khỏi sự kiểm soát của con người, tự thiết kế với tốc độ nhanh hơn chưa hề thấy, trong khi con người do hạn chế bởi "bộ giàn sinh học", bị ràng buộc bởi định luật tiến hóa của chính mình nên không tiến hóa kịp robot và ....gì nữa?

Trong  tờ Journalthriveglobal.com  có đoạn phân tích đáng lo sợ sau:

 "Tế bào thần kinh có khả năng dẫn truyền 200 chu kỳ trong một giây nhưng máy tính có khả năng tới hàng tỷ chu kỳ trong một giây. Tốc độ dẫn truyền của tế bào não chỉ bằng một phần triệu của tốc độ dẫn truyền của cáp quang học mà thôi. Còn thêm một điều do bộ não con người bị gò bó trong hộp sọ và còn bị ảnh hưởng nhiều hội chứng quên lú lẫn và bị chết dần hồi trong khi Trí Thông minh Nhân tạo khi tiến ngang kịp bộ não con người lại còn không ngừng phát triển thêm lên...


           Chó Robot mang theo súng liên thanh tự hành 


Sự "chạy đua" không cân sức sẽ đi đến một điểm tận diệt: đầu óc thông minh nhân tạo dĩ nhiên không có vấn đề đạo đức vì nó là máy dĩ nhiên là VÔ HỒN. Chúng ta đang đi đến sự thách thức với tạo hóa và cuối cùng phần thua kém thuộc về con người.

CHÍNH KINH TẾ VÀ LỢI NHUẬN CON NGƯỜI  ĐÃ NGĂN CẢN SỰ CẢNH BÁO CỦA  NHÀ BÁC HỌC

Bác Học Stephan Hawking mất ngày 14/3/2018. Trước khi mất không lâu, nhà bác học  này thật sự lo sợ về trí thông minh nhân tạo do nó sẽ "tự tách biệt ra tầm kiểm soát của con người, rồi từ đó chúng sẽ tự thiết kế và tạo tự gia tăng các tốc độ quá bất ngờ trong lúc con người bị giới hạn trong quy trình tiến hóa tự nhiên sinh học vì bản thân là sinh học ,từ đó không còn khả năng theo kịp với chúng , dĩ nhiên loài người sẽ bị nó thay thế mà cai trị lấy chúng ta "

   Khi quan tâm đến cảnh báo này, Bác Học Stephen Hawking tin tưởng rằng thế giới digital và Internet sẽ đóng vai trò quan yếu trong vấn đề điều khiển trí thông minh do con người làm ra, ứng dụng, nhân rộng ra cùng cả vai trò "bốc lột" CẢ nó cả một quá trình bao lâu nay.

   Nhưng nhà bác học này chua chát nhận ra rằng, tính tư hữu và quyền riêng tư đang làm khó khăn cho việc chận đứng mối đe dọa của TRÍ ÓC NHÂN TẠO sắp sửa mang lại và phủ chụp lên xã hội con người bao đe dọa khôn lường cùng không thể tưởng tượng ra trước được.

Nay Bác Học Hawking đã qua đời. Nhà vật lý tài năng như Elon Musk đang say sưa và thành công với chương trình không gian SpaceX cũng như kỹ nghệ xe hơi của ông đang thịnh hành... Cũng như bao khoa học gia khác trên các lĩnh vực quân sự hay dân sự tất cả càng lúc càng lệ thuộc vào Trí Thông Minh Nhân Tạo để đi đến các thành quả mau hơn nhiều hơn, thành công hơn.

Thế thì tại sao chính những ‘cha đẻ’ của khoa học vật lý của TRÍ THÔNG MINH NHÂN TẠO  lại SỢ HẢI TRÍ THÔNG MINH NÀY?

Trong một cuộc phỏng vấn chính Elon thố lộ thêm rằng:

-Khi trí thông minh nhân tạo AI tiến đến một điểm trong tương lai gần là thông minh hơn con người với một tỷ lệ nào đó; chúng ta lấy thí dụ tỷ lệ giữa người và mèo hiện tại (mèo là ta) và có thể lớn hơn nữa; ông nhấn mạnh 
CHÚNG TA LÚC NÀY PHẢI BẮT ĐẦU CẨN TRỌNG VỚI SỰ PHÁT TRIỂN VỚI AI LÀ VỪA

Vào năm 2018 tại một hội nghị khoa học kỹ thuật tại Austin Texas người chủ của Tesla và SpaceX cũng tiên liệu về một tương lai của thứ gọi là Chuyện Gia AI của chính AI . Cho đến lúc đó chúng biết hơn cả những gì chúng làm và thông minh hơn cả sự thông minh hiện có của chúng. Theo Musk thì đây là một thảm nạn chinh phục ngay sự thông minh của con người do những robot  này định nghĩa được sự thông minh của chúng rồi lại không ưa thứ máy nào thông minh hơn chúng

CON NGƯỜI KHÔNG CÓ CƠ HỘI HỌC HỎI SAI LẦM VỚI AI (4)

 


Al Max Tegmark một giáo sư vật lý tại Đại Học Công Nghệ MIT nói về sai lầm và học hỏi sai lầm nhưng đối với AI thì con người KHÔNG CÓ CƠ HỘI ĐỂ HỌC HỎI SAI LẦM.

DO SAO?

Vị giáo sư này biện luận rằng khi con người gặp tai nạn về hỏa hoạn từ đó chúng ta phát minh ra bình chữa cháy. Gặp tai nạn xe hơi, chúng ta phát minh ra dây an toàn rồi đến túi khí (air bag) cũng như đèn hiệu giao thông. Ông cho rằng đến kỷ nguyên của vũ khí hạt nhân và nhất là Thông Minh Nhân Tạo thì loài người PHẢI CÓ KẾ HOẠCH PHÒNG CHỐNG TRƯỚC ĐỂ SINH TỒN.

Tương tự, Nick Bostrom một giáo sư tại Đại Học Oxford trong cuốn Superintelligence vào năm 2014 ông cảnh báo:

-đối với TRÍ THÔNG MINH SIÊU PHÀM (superintelligence) nếu đã vô hồn và không thân thiện nó sẽ biết cách CẢN TRỞ CON NGƯỜI NGĂN CHẬN HAY THAY THẾ  ĐỂ DUY TRÌ 'SỞ THÍCH' CỦA CHÚNG đến đây thì xem như số phận con người đã bị ĐỊNH PHẦN VÀO TAY CHÚNG.

Trong lúc thế giới đang lo sợ các nhà độc tài các lãnh đạo siêu cường tính toán sai lầm trong xung đột  thế giới sẽ  đẩy đưa nhân loại đến bờ vực của THẢM HỌA THẾ CHIẾN thì các nhà khoa học họ ĐÃ NGHĨ XA HƠN CHÚNG TA DO HỌ  LO SỢ SỰ CẠNH TRANH  QUÂN SỰ của CÁC CƯỜNG QUỐC, TỪNG BƯỚC XÂY DỰNG NÊN SỰ CẠNH TRANH GIỮA CÁC AI VỚI NHAU?

ĐẾN GIAI ĐOẠN NÀY CHÍNH TRÍ THÔNG MINH NHÂN TẠO CỦA CÁC QUỐC GIA THÙ ĐỊCH  SẼ THAY THẾ CON NGƯỜI TÌM CÁCH RA TAY TRƯỚC VỚI TRÍ THÔNG MINH NHÂN TẠO CỦA ĐỐI PHƯƠNG  ĐỂ GIÀNH CHIẾN THẮNG!

 CHÍNH THỜI ĐIỂM ĐÓ MỚI LÀ THẢM HỌA THẬT SỰ TIÊU DIỆT LOÀI NGƯỜI 

    thời điểm đó không biết chính xác là bao lâu? nhưng cảnh báo của giới khoa học gia càng lúc càng rõ nét do sự cạnh tranh phát triển AI không còn giới hạn giữa các siêu cường càng làm cho chúng ta tin tưởng thảm họa đó ĐANG THÀNH HIỆN THỰC

DÙ SAO CHĂNG NỮA

KHÔNG AI HIỂU ĐIỀU NÀY HƠN CHÍNH CÁC NHÀ KHOA HỌC  HIỂU


Thiết nghĩ,  đây có thể tạm thay cho phần kết luận./.


Đinh Hoa Lư 
edition 20/10/2022

***

sources

(1) Don't Let Artificial Intelligence Take Over, Top Scientists Warn


(2) FIND WHAT ELON MUSK SAID ABOUT REAL WORLD AI 


(3) Elon Musk: ‘Mark my words — A.I. is far more dangerous than nukes’



(4) VOX: WHY ELON MUSK FEARS OF AI


No comments:

Post a Comment