Friday, February 17, 2023

TRÍ THÔNG MINH NHÂN TẠO -NHỮNG CẢNH BÁO CỦA NHỮNG NGƯỜI THIẾT KẾ RA NÓ


Con người, sinh vật bị giới hạn
do sự tiến hóa sinh học chậm chạp,
không thể cạnh tranh và sẽ bị thay thế...

Cố Giáo Sư Nhà Vật Lý Anh, Stephen Hawking

chào bạn đọc

Cho đến nay Trí Tuệ Nhân Tạo (Artificial Intelligence-AI) càng ngày càng được thế giới đề cập đến nhiều hơn và mức độ phát triển càng lúc càng  tinh vi, phổ biến. Nhưng về mặt trái của nó, công luận bắt đầu nghe ngóng cùng báo động về những nguy cơ tiềm ẩn  của trí tuệ nhân tạo rất to lớn và đây là điều không phải ‘nói cho có nói’ mà thôi.

Trước khi qua đời,  Giáo Sư vật lý Anh Quốc là Stephen Hawking từng nói với đài BBC, cảnh báo loài người,: “Sự phát triển toàn diện về  trí tuệ nhân tạo có thể cùng có ý nghĩa là kết thúc sự tồn tại của loài người.(The development of full artificial intelligence could spell the end of the human race.)

Kể từ lúc bác học Stephen Hawking còn sống hay sau này, chúng ta thấy nhà vật lý nổi danh này không hề đơn độc với suy nghĩ trên. Chính Elon Musks, người sáng lập Tesla và SpaceX, cùng ý nghĩa là người từng phát triển hay tận dụng về Trí Tuệ Nhân Tạo trong lĩnh vực khoa học kỹ thuật lại  lo sợ về AI. 

Tại một hội nghị về công nghệ có tên là Southwest Tech tại Texas, ông Musks đề cập đến mối lợi phát triển AI do chính AI... “

có khả năng tạo được nhiều hơn những gì mà chúng ta ước đoán chúng có khả năng gia tăng tốc độ theo cấp số nhân

    Chúng ta thừa nhận nền kinh tế thế giới đang cần tự động hóa để gia tăng sản lượng, trong đó chức năng đến từ có các thuật toán vi tính nay kinh tế thế giới từng giao cho AI. điển hình là những robot hiện nay.  Điều lạ lùng, AI kiểm soát và thông thuộc luôn chuyện giới tính và chủng tộc rồi nay qua phương diện quân sự nó quán xuyến luôn cả vũ khí tự động có ý nghĩa là hoạt động không cần sự giám sát của con người...

Từ chuyện đó, các think tanks hay khoa học gia quốc tế bắt đầu biết lo sợ.

Vài lo sợ này mới chỉ là bước khởi đầu của các lo sợ mà thôi. Lý do, Trí Thông Minh Nhân Tạo CHƯA LỘ LIỄU RA HẾT NHỮNG NGUY HIỂM THỰC SỰ của nó.


LẠM DỤNG AI CÙNG LÚC LO SỢ AI PHẢI CHĂNG LÀ MÂU THUẪN


 Dù sao, khi các cường quốc kinh tế và quân sự lúc đang cần và lạm dụng AI phải lường hết các bí ẩn tiềm tàng của nó ra sao? cùng lúc chuyên gia thế giới bắt đầu cảnh báo và lo sợ AI nhưng mặt khác các siêu cường phải thi đua phát triển AI rõ ràng là mâu thuẫn tự phát.

                                           

CÁC NHÀ BÁC HỌC THẾ GIỚI TỪNG NGHĨ GÌ  VỀ TRÍ THÔNG MINH NHÂN TẠO


TỪ NHÀ KHOA HỌC VẬT LÝ CHO TỚI CÁC TAY THÔNG TUỆ VỀ MÁY TÍNH HAY KHOA HỌC KHÔNG GIAN ĐỀU LO NGẠI VỀ TRÍ THÔNG MINH NHÂN TẠO-AI (Artificial Intelligence)
Elon Musk Ông Chủ của SpaceX và Tesla Motor LÀ NGƯỜI GIÀU NHẤT HÀNH TINH CÓ THỂ ĐI LÊN TỪ TRÍ THÔNG MINH NHÂN TẠO VÀ ÓC SÁNG TẠO CỦA ÔNG
tại Hội Nghị Kỹ thuật SOuthwest tại  Austin Texas ngày 11/3/2018, CEO của Tesla và ông chủ của SpaceX phát biểu rằng AI còn nguy hiễm hơn chuyện đầu đạn hạt nhân của Bắc Hàn gấp nhiều lần. 
Đây không phải là lần đầu tiên ông Musks cảnh báo về sự nguy hiểm tiềm tàng về AI, ông cho rằng trong lúc nhân loại còn cho rằng cho phép  tự do chế tạo đầu đạn hạt nhân là cả một sự điên rồ thì ông cảnh báo nhân loại...hãy nhớ lấy lời ông TRÍ THÔNG MINH NHÂN TẠO CÒN NGUY HIỂM GẤP NHIỀU LẦN ĐẦU ĐẠN HẠT NHÂN 


It is not the first time Musk has made frightening predictions about the potential of artificial intelligence — he has, for example, called AI vastly more dangerous than North Korea — and he has previously called for regulatory oversight (CNBC)



TẠI SAO THẾ?
LÝ DO: MỐI NGUY HIỂM CỦA TRÍ THÔNG MINH NHÂN TẠO ngay từ bây giờ con người chưa thấy được hết, do sự đe dọa đó là mối nguy TIÊM ẨN 
CHO ĐẾN KHI...


ĐẾN KHI CỔ MÁY THÔNG MINH  BIẾT TỰ HỌC 

    Các khoa học gia về máy tính như Ray Kurzweil tốt nghiệp Trường Công Nghệ Massacchussetts (MIT) vừa là một nhà đầu tư cùng nghiên cứu, ông cho rằng Trí Thông Minh Nhân Tạo (AI) có thể vượt qua trí thông minh cổ điển của con người và tiếp tục ‘tự học để thăng tiến’.
 Suy nghĩ chuyện này các nhà nghiên cứu đều cho rằng “những chiếc tàu chạy bằng hơi nước không thể tự nó để trở thành những chiếc tàu hơi nước chạy tốt hơn.  Tuy nhiên thời đại hôm nay AI  lại rất khác do chúng có thể TỰ HỌC ĐỂ TỰ NÓ CÀNG THÔNG MINH HƠN!

NASA ĐÃ CUNG CẤP CHO ELON MUSKS  NHIỀU GÓI THẦU VỀ CHƯƠNG TRÌNH KHÔNG GIAN VÀ ÔNG TA CÀNG GIÀU HƠN 



     Elon Musk nhà doanh nghiệp về khoa học vi tính nhà đầu tư và kinh doanh chủ Tesla Motor và sau này cùng chủ của chương trình SpaceX  sau này thành công với Space X  với các lượt  phi thuyền Falcon  đưa lên trạm không gian. Bước đường từ doanh nghiệp xe hơi cho tới các hỏa tiễn Falcon kể từ ngày 27/5/2020 hãng hàng không vũ trụ của ông đã lần lượt  đưa các phi hành gia Hoa Kỳ lên trạm không gian hiện bay quanh địa cầu.

TRỞ LẠI VẤN ĐỀ TRÍ THÔNG MINH NHÂN TẠO VÀ NHỮNG MỐI LO SỢ NẢY SINH NGAY TỪ TRONG TRÍ ÓC CỦA CÁC NHÀ BÁC HỌC ĐẶC BIỆT bác học Stephen Hawking ông đã nghĩ gì, kể cả Elon Musks đã lo sợ viễn ảnh tương lai ra sao về AI

vào năm 2015 bác học Stephen Hawking đã cùng Elon Musk đã cùng nhà đồng sáng lập Apple là Steve Wozniak cùng với mấy mươi nhà nghiên cứu về robot cùng AI đã đưa ra một Lá Thư Cảnh Báo cuối cùng về sự nguy hiểm nói khác đi về mối họa tiềm ẩn của tương lai về thế hệ Robot cùng AI.

Trong Lá Thư Cảnh Báo đồng ký tên đó có đoạn:

 ...Môt ngày nào đó chúng ta có thể mất kiểm soát các hê thống Thông Minh Nhân Tạo (AI) do sự gia tăng của Siêu Trí Tuệ nó sẽ bất tuân lệnh con người. Rồi các hệ thống như thế sẽ đe dọa loài người. Do sao mà tình huống này có thể phát sinh? Chúng ta đã có đầu tư hợp lý nào để nghiên cứu và hiểu rõ các tình trạng nguy hiểm đó sẽ xảy ra trong nay mai hay chưa? Chúng ta có dự phòng khả năng nào đó đối phó với một dạng siêu trí tuệ nguy hiểm hay ngay cả một sự xuất hiện của tình trạng "bùng nổ thông minh" hay không?



Bác Học Stephen Hawking TỪNG LO NGẠI VỀ TRÍ THÔNG MINH NHÂN TẠO GIEO HỌA CHO HẬU THẾ TRƯỚC KHI ÔNG QUA ĐỜI.

Theo ông,

TRÍ THÔNG MINH NHÂN TẠO: TIỀM ẨN MỐI HỌA TẬN DIỆT CON NGƯỜI

 “Sự phát triển toàn diện của Trí Thông Minh Nhân Tạo đồng nghĩa với tận diệt loài người
(Stephen Hawking)

  Theo nhà Vật Lý Hawking, trí thông minh nhân tạo (artificial intelligence -AI) sẽ tự "tách biệt" ra khỏi sự kiểm soát của con người, tự thiết kế với tốc độ nhanh hơn chưa hề thấy, trong khi con người do hạn chế bởi "bộ giàn sinh học", bị ràng buộc bởi định luật tiến hóa của chính mình nên không tiến hóa kịp robot và ....gì nữa?

Trong  tờ Journalthriveglobal.com  có đoạn phân tích đáng lo sợ sau:

 "Tế bào thần kinh có khả năng dẫn truyền 200 chu kỳ trong một giây nhưng máy tính có khả năng tới hàng tỷ chu kỳ trong một giây. Tốc độ dẫn truyền của tế bào não chỉ bằng một phần triệu của tốc độ dẫn truyền của cáp quang học mà thôi. Còn thêm một điều do bộ não con người bị gò bó trong hộp sọ và còn bị ảnh hưởng nhiều hội chứng quên lú lẫn và bị chết dần hồi trong khi Trí Thông minh Nhân tạo khi tiến ngang kịp bộ não con người lại còn không ngừng phát triển thêm lên...


           Chó Robot mang theo súng liên thanh tự hành 


Sự "chạy đua" không cân sức sẽ đi đến một điểm tận diệt: đầu óc thông minh nhân tạo dĩ nhiên không có vấn đề đạo đức vì nó là máy dĩ nhiên là VÔ HỒN. Chúng ta đang đi đến sự thách thức với tạo hóa và cuối cùng phần thua kém thuộc về con người.

CHÍNH KINH TẾ VÀ LỢI NHUẬN CON NGƯỜI  ĐÃ NGĂN CẢN SỰ CẢNH BÁO CỦA  NHÀ BÁC HỌC

Bác Học Stephan Hawking mất ngày 14/3/2018. Trước khi mất không lâu, nhà bác học  này thật sự lo sợ về trí thông minh nhân tạo do nó sẽ "tự tách biệt ra tầm kiểm soát của con người, rồi từ đó chúng sẽ tự thiết kế và tạo tự gia tăng các tốc độ quá bất ngờ trong lúc con người bị giới hạn trong quy trình tiến hóa tự nhiên sinh học vì bản thân là sinh học ,từ đó không còn khả năng theo kịp với chúng , dĩ nhiên loài người sẽ bị nó thay thế mà cai trị lấy chúng ta "

   Khi quan tâm đến cảnh báo này, Bác Học Stephen Hawking tin tưởng rằng thế giới digital và Internet sẽ đóng vai trò quan yếu trong vấn đề điều khiển trí thông minh do con người làm ra, ứng dụng, nhân rộng ra cùng cả vai trò "bốc lột" CẢ nó cả một quá trình bao lâu nay.

   Nhưng nhà bác học này chua chát nhận ra rằng, tính tư hữu và quyền riêng tư đang làm khó khăn cho việc chận đứng mối đe dọa của TRÍ ÓC NHÂN TẠO sắp sửa mang lại và phủ chụp lên xã hội con người bao đe dọa khôn lường cùng không thể tưởng tượng ra trước được.

Nay Bác Học Hawking đã qua đời. Nhà vật lý tài năng như Elon Musk đang say sưa và thành công với chương trình không gian SpaceX cũng như kỹ nghệ xe hơi của ông đang thịnh hành... Cũng như bao khoa học gia khác trên các lĩnh vực quân sự hay dân sự tất cả càng lúc càng lệ thuộc vào Trí Thông Minh Nhân Tạo để đi đến các thành quả mau hơn nhiều hơn, thành công hơn.

Thế thì tại sao chính những ‘cha đẻ’ của khoa học vật lý của TRÍ THÔNG MINH NHÂN TẠO  lại SỢ HẢI TRÍ THÔNG MINH NÀY?

Trong một cuộc phỏng vấn chính Elon thố lộ thêm rằng:

-Khi trí thông minh nhân tạo AI tiến đến một điểm trong tương lai gần là thông minh hơn con người với một tỷ lệ nào đó; chúng ta lấy thí dụ tỷ lệ giữa người và mèo hiện tại (mèo là ta) và có thể lớn hơn nữa; ông nhấn mạnh 
CHÚNG TA LÚC NÀY PHẢI BẮT ĐẦU CẨN TRỌNG VỚI SỰ PHÁT TRIỂN VỚI AI LÀ VỪA

Vào năm 2018 tại một hội nghị khoa học kỹ thuật tại Austin Texas người chủ của Tesla và SpaceX cũng tiên liệu về một tương lai của thứ gọi là Chuyện Gia AI của chính AI Cho đến lúc đó chúng biết hơn cả những gì chúng làm và thông minh hơn cả sự thông minh hiện có của chúng. Theo Musk thì đây là một thảm nạn chinh phục ngay sự thông minh của con người do những robot  này định nghĩa được sự thông minh của chúng rồi lại không ưa thứ máy nào thông minh hơn chúng

CON NGƯỜI KHÔNG CÓ CƠ HỘI HỌC HỎI SAI LẦM VỚI AI (4)

 


Al Max Tegmark một giáo sư vật lý tại Đại Học Công Nghệ MIT nói về sai lầm và học hỏi sai lầm nhưng đối với AI thì con người KHÔNG CÓ CƠ HỘI ĐỂ HỌC HỎI SAI LẦM.

DO SAO?

Vị giáo sư này biện luận rằng khi con người gặp tai nạn về hỏa hoạn từ đó chúng ta phát minh ra bình chữa cháy. Gặp tai nạn xe hơi, chúng ta phát minh ra dây an toàn rồi đến túi khí (air bag) cũng như đèn hiệu giao thông. Ông cho rằng đến kỷ nguyên của vũ khí hạt nhân và nhất là Thông Minh Nhân Tạo thì loài người PHẢI CÓ KẾ HOẠCH PHÒNG CHỐNG TRƯỚC ĐỂ SINH TỒN.

Tương tự, Nick Bostrom một giáo sư tại Đại Học Oxford trong cuốn Superintelligence vào năm 2014 ông cảnh báo:

-đối với TRÍ THÔNG MINH SIÊU PHÀM (superintelligence) nếu đã vô hồn và không thân thiện nó sẽ biết cách CẢN TRỞ CON NGƯỜI NGĂN CHẬN HAY THAY THẾ  ĐỂ DUY TRÌ 'SỞ THÍCH' CỦA CHÚNG đến đây thì xem như số phận con người đã bị ĐỊNH PHẦN VÀO TAY CHÚNG.

Trong lúc thế giới đang lo sợ các nhà độc tài các lãnh đạo siêu cường tính toán sai lầm trong xung đột  thế giới sẽ  đẩy đưa nhân loại đến bờ vực của THẢM HỌA THẾ CHIẾN thì các nhà khoa học họ ĐÃ NGHĨ XA HƠN CHÚNG TA DO HỌ  LO SỢ SỰ CẠNH TRANH  QUÂN SỰ của CÁC CƯỜNG QUỐC, TỪNG BƯỚC XÂY DỰNG NÊN SỰ CẠNH TRANH GIỮA CÁC AI VỚI NHAU?

ĐẾN GIAI ĐOẠN NÀY CHÍNH TRÍ THÔNG MINH NHÂN TẠO CỦA CÁC QUỐC GIA THÙ ĐỊCH  SẼ THAY THẾ CON NGƯỜI TÌM CÁCH RA TAY TRƯỚC VỚI TRÍ THÔNG MINH NHÂN TẠO CỦA ĐỐI PHƯƠNG  ĐỂ GIÀNH CHIẾN THẮNG!

 CHÍNH THỜI ĐIỂM ĐÓ MỚI LÀ THẢM HỌA THẬT SỰ TIÊU DIỆT LOÀI NGƯỜI 

    thời điểm đó không biết chính xác là bao lâu? nhưng cảnh báo của giới khoa học gia càng lúc càng rõ nét do sự cạnh tranh phát triển AI không còn giới hạn giữa các siêu cường càng làm cho chúng ta tin tưởng thảm họa đó ĐANG THÀNH HIỆN THỰC

DÙ SAO CHĂNG NỮA

KHÔNG AI HIỂU ĐIỀU NÀY HƠN CHÍNH CÁC NHÀ KHOA HỌC  HIỂU


Thiết nghĩ,  đây có thể tạm thay cho phần kết luận./.


Đinh Hoa Lư 
edition 20/10/2022

***

sources

(1) Don't Let Artificial Intelligence Take Over, Top Scientists Warn


(2) FIND WHAT ELON MUSK SAID ABOUT REAL WORLD AI 


(3) Elon Musk: ‘Mark my words — A.I. is far more dangerous than nukes’



(4) VOX: WHY ELON MUSK FEARS OF AI

No comments:

Post a Comment