Sunday, October 8, 2023

ĐÃ ĐẾN LÚC CON NGƯỜI PHẢI LO SỢ VỀ TRÍ THÔNG MINH NHÂN TẠO

 


I- TRÍ THÔNG MINH NHÂN TẠO (AI) CÒN NGUY HIỂM GẤP NHIỀU LẦN ĐẦU ĐẠN HẠT NHÂN


chào bạn đọc

Có cường điệu hay phi thực tế KHI AI ĐÓ THỐT RA SỰ LO SỢ như thế, chính Elon Musks nhà tỷ phú và sáng tạo hàng đầu thế giới người từng đi lên nhờ vào AI lại e sợ trước như vậy


Nhà khoa học, người bạn đồng hành vong niên trong khoa học là cố giáo sư vật lý hay nói cho đúng là Bác Học Stephen Hawking trước khi từ biệt thế gian người cũng e ngại về Trí Thông Minh Nhân Tạo do ông đã phát biểu...

  Con người, sinh vật bị giới hạn do sự tiến hóa sinh học chậm chạp, không thể cạnh tranh và sẽ bị thay thế...

Cố Giáo Sư Nhà Vật Lý Anh, Stephen Hawking

                                             ***

CÁC NHÀ BÁC HỌC THẾ GIỚI TỪNG NGHĨ GÌ  VỀ TRÍ THÔNG MINH NHÂN TẠO


TỪ NHÀ KHOA HỌC VẬT LÝ CHO TỚI CÁC TAY THÔNG TUỆ VỀ MÁY TÍNH HAY KHOA HỌC KHÔNG GIAN ĐỀU LO NGẠI VỀ TRÍ THÔNG MINH NHÂN TẠO-AI (Artificial Intelligence)
trở lại với Elon Musk, ông Chủ của SpaceX và Tesla Motor LÀ NGƯỜI GIÀU NHẤT HÀNH TINH CÓ THỂ ĐI LÊN TỪ TRÍ THÔNG MINH NHÂN TẠO VÀ ÓC SÁNG TẠO CỦA ÔNG



----------------------------------------- 


KHI CỔ MÁY THÔNG MINH  BIẾT TỰ HỌC 

Các khoa học gia về máy tính như Ray Kurzweil tốt nghiệp Trường Công Nghệ Massacchussetts (MIT) vừa là một nhà đầu tư cùng nghiên cứu, ông cho rằng Trí Thông Minh Nhân Tạo (AI) có thể vượt qua trí thông minh cổ điển của con người và tiếp tục ‘tự học để thăng tiến’.
 Suy nghĩ chuyện này các nhà nghiên cứu đều cho rằng “những chiếc tàu chạy bằng hơi nước không thể tự nó để trở thành những chiếc tàu hơi nước chạy tốt hơn.  Tuy nhiên thời đại hôm nay AI  lại rất khác do chúng có thể TỰ HỌC ĐỂ TỰ NÓ CÀNG THÔNG MINH HƠN!

NASA ĐÃ CUNG CẤP CHO ELON MUSK NHIỀU GÓI THẦU VỀ CHƯƠNG TRÌNH KHÔNG GIAN VÀ ÔNG TA CÀNG GIÀU HƠN 



 Elon Musk nhà doanh nghiệp về khoa học vi tính nhà đầu tư và kinh doanh chủ Tesla Motor và sau này cùng chủ của chương trình SpaceX  sau này thành công với Space X  với các lượt  phi thuyền Falcon  đưa lên trạm không gian. Bước đường từ doanh nghiệp xe hơi cho tới các hỏa tiễn Falcon kể từ ngày 27/5/2020 hãng hàng không vũ trụ của ông đã lần lượt  đưa các phi hành gia Hoa Kỳ lên trạm không gian hiện bay quanh địa cầu.

TRỞ LẠI VẤN ĐỀ TRÍ THÔNG MINH NHÂN TẠO VÀ NHỮNG MỐI LO SỢ NẢY SINH NGAY TỪ TRONG TRÍ ÓC CỦA CÁC NHÀ BÁC HỌC ĐẶC BIỆT Stephen Hawking ông đã nghĩ gì kể cả Musk cũng đã lo sợ viễn ảnh tương lai ra sao về AI? (1)

Có một lần cách đây 6 năm (2015) bác học Hawking đã cùng Elon Musk đã cùng nhà đồng sáng lập Apple là Steve Wozniak cùng với mấy mươi nhà nghiên cứu về robot cùng AI đã đưa ra một Lá Thư Cảnh Báo cuối cùng về sự nguy hiểm nói khác đi về mối họa tiềm ẩn của tương lai về thế hệ Robot cùng AI.

Trong Lá Thư Cảnh Báo đồng ký tên đó có đoạn..

 
...Môt ngày nào đó chúng ta có thể mất kiểm soát các hê thống Thông Minh Nhân Tạo (AI) do sự gia tăng của Siêu Trí Tuệ nó sẽ bất tuân lệnh con người. Rồi các hệ thống như thế sẽ đe dọa loài người. Do sao mà tình huống này có thể phát sinh? Chúng ta đã có đầu tư hợp lý nào để nghiên cứu và hiểu rõ các tình trạng nguy hiểm đó sẽ xảy ra trong nay mai hay chưa? Chúng ta có dự phòng khả năng nào đó đối phó với một dạng siêu trí tuệ nguy hiểm hay ngay cả một sự xuất hiện của tình trạng "bùng nổ thông minh" hay không?



Bác Học Stephen Hawking TỪNG LO NGẠI VỀ TRÍ THÔNG MINH NHÂN TẠO GIEO HỌA CHO HẬU THẾ TRƯỚC KHI ÔNG QUA ĐỜI.

Theo ông:

TRÍ THÔNG MINH NHÂN TẠO: TIỀM ẨN MỐI HỌA TẬN DIỆT CON NGƯỜI

 “Sự phát triển toàn diện của Trí Thông Minh Nhân Tạo đồng nghĩa với tận diệt loài người
(Stephen Hawking)

  Theo nhà Vật Lý Hawking, trí thông minh nhân tạo (artificial intelligence -AI) sẽ tự "tách biệt" ra khỏi sự kiểm soát của con người, tự thiết kế với tốc độ nhanh hơn chưa hề thấy, trong khi con người do hạn chế bởi "bộ giàn sinh học", bị ràng buộc bởi định luật tiến hóa của chính mình nên không tiến hóa kịp robot và ....gì nữa?

Trong  tờ Journalthriveglobal.com  có đoạn phân tích đáng lo sợ sau:

 "Tế bào thần kinh có khả năng dẫn truyền 200 chu kỳ trong một giây nhưng máy tính có khả năng tới hàng tỷ chu kỳ trong một giây. Tốc độ dẫn truyền của tế bào não chỉ bằng một phần triệu của tốc độ dẫn truyền của cáp quang học mà thôi. Còn thêm một điều do bộ não con người bị gò bó trong hộp sọ và còn bị ảnh hưởng nhiều hội chứng quên lú lẫn và bị chết dần hồi trong khi Trí Thông minh Nhân tạo khi tiến ngang kịp bộ não con người lại còn không ngừng phát triển thêm lên...


           Chó Robot mang theo súng liên thanh tự hành 


Sự "chạy đua" không cân sức sẽ đi đến một điểm tận diệt cuối cùng cho con người.  Trí Não Nhân Tạo dĩ nhiên không biết đạo đức lương tâm là gì cả do nó là cỗ máy VÔ HỒN tất cả tính toán của nó chỉ là hệ quả của vi tính hóa. Ngay cả robot tình dục cũng chỉ là những 'cảm xúc' vi tính hóa và phi nhân hóa...
 
Chúng ta đang đi đến sự thách thức với tạo hóa và cuối cùng phần thua kém thuộc về con người.

CHÍNH KINH TẾ VÀ LỢI NHUẬN CON NGƯỜI  ĐÃ NGĂN CẢN SỰ CẢNH BÁO CỦA  NHÀ BÁC HỌC

Bác Học Stephan Hawking mất ngày 14/3/2018. Trước khi mất không lâu, nhà bác học  này thật sự lo sợ về trí thông minh nhân tạo do nó sẽ "tự tách biệt ra tầm kiểm soát của con người, rồi từ đó chúng sẽ tự thiết kế và tạo tự gia tăng các tốc độ quá bất ngờ trong lúc con người bị giới hạn trong quy trình tiến hóa tự nhiên sinh học vì bản thân là sinh học ,từ đó không còn khả năng theo kịp với chúng , dĩ nhiên loài người sẽ bị nó thay thế mà cai trị lấy chúng ta "

   Khi quan tâm đến cảnh báo này, Bác Học Stephen Hawking tin tưởng rằng thế giới digital và Internet sẽ đóng vai trò quan yếu trong vấn đề điều khiển trí thông minh do con người làm ra, ứng dụng, nhân rộng ra cùng cả vai trò "bốc lột" CẢ nó cả một quá trình bao lâu nay.

   Nhưng nhà bác học này chua chát nhận ra rằng, tính tư hữu và quyền riêng tư đang làm khó khăn cho việc chận đứng mối đe dọa của TRÍ ÓC NHÂN TẠO sắp sửa mang lại và phủ chụp lên xã hội con người bao đe dọa khôn lường cùng không thể tưởng tượng ra trước được.

Nay Bác Học Hawking đã qua đời. Nhà vật lý tài năng như Elon Musk đang say sưa và thành công với chương trình không gian SpaceX cũng như kỹ nghệ xe hơi của ông đang thịnh hành... Cũng như bao khoa học gia khác trên các lĩnh vực quân sự hay dân sự tất cả càng lúc càng lệ thuộc vào Trí Thông Minh Nhân Tạo để đi đến các thành quả mau hơn nhiều hơn, thành công hơn.

Thế thì tại sao chính những ‘cha đẻ’ của khoa học vật lý của TRÍ THÔNG MINH NHÂN TẠO  lại SỢ HẢI TRÍ THÔNG MINH NÀY?

Trong một cuộc phỏng vấn chính Elon thố lộ thêm rằng:

-Khi trí thông minh nhân tạo AI tiến đến một điểm trong tương lai gần là thông minh hơn con người với một tỷ lệ nào đó; chúng ta lấy thí dụ tỷ lệ giữa người và mèo hiện tại (mèo là ta) và có thể lớn hơn nữa; ông nhấn mạnh 
CHÚNG TA LÚC NÀY PHẢI BẮT ĐẦU CẨN TRỌNG VỚI SỰ PHÁT TRIỂN VỚI AI LÀ VỪA

Vào năm 2018 tại một hội nghị khoa học kỹ thuật tại Austin Texas người chủ của Tesla và SpaceX cũng tiên liệu về một tương lai của thứ gọi là Chuyện Gia AI của chính AI Cho đến lúc đó chúng biết hơn cả những gì chúng làm và thông minh hơn cả sự thông minh hiện có của chúng. Theo Musk thì đây là một thảm nạn chinh phục ngay sự thông minh của con người do những robot  này định nghĩa được sự thông minh của chúng rồi lại không ưa thứ máy nào thông minh hơn chúng

II- CON NGƯỜI KHÔNG CÓ CƠ HỘI HỌC HỎI SAI LẦM VỚI TRÍ THÔNG MINH NHÂN TẠO 

 


Al Max Tegmark một giáo sư vật lý tại Đại Học Công Nghệ MIT nói về sai lầm và học hỏi sai lầm nhưng đối với AI thì con người KHÔNG CÓ CƠ HỘI ĐỂ HỌC HỎI SAI LẦM.

DO SAO?

Vị giáo sư này biện luận rằng khi con người gặp tai nạn về hỏa hoạn từ đó chúng ta phát minh ra bình chữa cháy. Gặp tai nạn xe hơi, chúng ta phát minh ra dây an toàn rồi đến túi khí (air bag) cũng như đèn hiệu giao thông. Ông cho rằng đến kỷ nguyên của vũ khí hạt nhân và nhất là Thông Minh Nhân Tạo thì loài người PHẢI CÓ KẾ HOẠCH PHÒNG CHỐNG TRƯỚC ĐỂ SINH TỒN.

Tương tự, Nick Bostrom một giáo sư tại Đại Học Oxford trong cuốn Superintelligence vào năm 2014 ông cảnh báo:

-đối với TRÍ THÔNG MINH SIÊU PHÀM (superintelligence) nếu đã vô hồn và không thân thiện nó sẽ biết cách CẢN TRỞ CON NGƯỜI NGĂN CHẬN HAY THAY THẾ  ĐỂ DUY TRÌ 'SỞ THÍCH' CỦA CHÚNG đến đây thì xem như số phận con người đã bị ĐỊNH PHẦN VÀO TAY CHÚNG.

Trong lúc thế giới đang lo sợ các nhà độc tài các lãnh đạo siêu cường tính toán sai lầm trong xung đột  thế giới sẽ  đẩy đưa nhân loại đến bờ vực của THẢM HỌA THẾ CHIẾN thì các nhà khoa học họ ĐÃ NGHĨ XA HƠN CHÚNG TA DO HỌ  LO SỢ SỰ CẠNH TRANH  QUÂN SỰ của CÁC CƯỜNG QUỐC, TỪNG BƯỚC XÂY DỰNG NÊN SỰ CẠNH TRANH GIỮA CÁC AI VỚI NHAU?

ĐẾN GIAI ĐOẠN NÀY CHÍNH TRÍ THÔNG MINH NHÂN TẠO CỦA CÁC QUỐC GIA THÙ ĐỊCH  SẼ THAY THẾ CON NGƯỜI TÌM CÁCH RA TAY TRƯỚC VỚI TRÍ THÔNG MINH NHÂN TẠO CỦA ĐỐI PHƯƠNG  ĐỂ GIÀNH CHIẾN THẮNG!

 CHÍNH THỜI ĐIỂM ĐÓ MỚI LÀ THẢM HỌA THẬT SỰ TIÊU DIỆT LOÀI NGƯỜI 

    thời điểm đó không biết chính xác là bao lâu? nhưng cảnh báo của giới khoa học gia càng lúc càng rõ nét do sự cạnh tranh phát triển AI không còn giới hạn giữa các siêu cường càng làm cho chúng ta tin tưởng thảm họa đó ĐANG THÀNH HIỆN THỰC

DÙ SAO CHĂNG NỮA

KHÔNG AI HIỂU ĐIỀU NÀY HƠN CHÍNH CÁC NHÀ KHOA HỌC  HIỂU


Thiết nghĩ,  đây có thể tạm thay cho phần kết luận./.


III- 12 ĐIỀU ĐÁNG LO SỢ VỀ TRÍ THÔNG MINH NHÂN TẠO -AI

 

theo Geofrey Hinton, Trí Tuệ Nhân Tạo (AI) đang thách thức lại những người điều khiển nó 

Geoffrey Hinton là ai?

Geoffrey Hinton là nhà Tâm Lý Học Nhận Thức (Cognitive Psychologist)  ông cũng là Khoa Học Gia về Máy điện Toán người Canada gốc Anh quốc. Hinton là người đã làm việc lâu dài với Google hơn một thập kỷ. Khoa học gia Hinton và nhóm của ông có trách nhiệm chịu trách nhiệm về Google Photos mà chúng ta hay thấy.  

Hinton cũng đã hoàn thành công việc nổi bật trong sáng tạo trong lĩnh vực mạng thần kinh (neural network), công việc này đã mang tới các quảng cáo rầm rộ hôm nay  như ChatGPT và các chatbot AI khác. Mặc dù Hinton không trực tiếp quan hệ  với OpenAInhưng một trong những sinh viên của ông hiện là nhà khoa học trưởng tại công ty AI do Microsoft đài thọ.


MƯỜI HAI  ĐIỀU LO NGẠI VỀ  TRÍ THÔNG MINH NHÂN TẠO (AI)

Công nghệ ứng dụng về Trí Thông Minh Nhân Tạo (AI) càng lúc càng nhiều kỹ xảo tinh vi và phát triển rộng khắp toàn cầu. Tuy thế càng lúc càng có nhiều lời CẢNH BÁO về sự nguy hiểm của AI, lời cảnh báo đó càng lúc càng nhiều hơn.

Geoffrey Hinton được coi là “Bố Già của AI” (AI Godfather) nhưng ông báo động:

-“AI càng lúc càng thông minh hơn chúng ta và có khả năng quyết định nhằm chiếm quyền kiểm soát chúng ta. Con người cần chú ý để ngăn chận vấn nạn này xảy ra” .

Tưởng cũng cần biết thêm  Hinton là chủ nhân sáng lập cơ sở  và chế tạo ra cỗ máy tự học và Thuật Toán về Mạng Thần Kinh Vi Tính (neural network algorithms). Vào năm 2023 Hinton rời chức vụ tại Google ngõ hầu có cơ hội TƯ DO BÁO ĐỘNG VỀ CÁC ĐIỀU NGUY HẠI CỦA Trí Thông Minh Nhân Tạo mà không bị một ràng buộc hay lấn cấn nào dù Hinton phải mất đi rất nhiều quyền lợi riêng tư trong vị trí của ông tại Google.

=================

chú thích

Neural network: Mạng Thần Kinh trong điện toán cố gắng mô phỏng theo chức năng như bộ não con người, với sự kết hợp khoa học vi tính, thống kê học để giải quyết các vấn đề trong nhiệm vụ của Trí Thông Minh Nhân Tạo

Thuật Toán (algorithm)

Theo tự điển Merriam-Webster thì algorithm là một tiến trình để giải quyết một vấn đề toán học với một số bước hữu hạn và liên tục lập lại nhiều lần theo thao tác nào đó. Theo dictionary.com, từ này xuất hiện từ 1690-1700 theo tiếng Hy Lạp là arithmós có nghĩa là number / số

Trong điện toán. Algorithm -Thuật Toán là một tập hợp các lệnh mà máy tính phải tuân theo để thực hiện các phép tính hoặc các hoạt động giải quyết vấn đề khác. Theo định nghĩa chính thức của nó, một thuật toán là một tập hợp hữu hạn các hướng dẫn được thực hiện theo một thứ tự cụ thể để thực hiện một công việc cụ thể.

====================================== 

trích 

THEO BBC

HINTON được nhiều người coi là Bố Già của trí tuệ nhân tạo (Godfather of AI) nhưng đã nghỉ việc, cảnh báo về những nguy cơ ngày càng tăng cao trong lĩnh vực AI

 Geoffrey Hinton năm nay 75 tuổi, đã tuyên bố từ chức khỏi Google trong một tuyên bố gửi cho tờ New York Times, nói rằng giờ đây ông rất hối hận về công việc của mình đã làm.  Ông nói với BBC một số mối nguy hiểm của chatbot AI quả thật sẽ "khá đáng sợ". "Ngay bây giờ tuy chúng chưa thông minh hơn chúng ta,nhưng ông hiểu Trí Thông Minh Nhân Tạo nó có thể vượt con người trong thời gian ngắn nữa thôi ...

AI 'godfather' Geoffrey Hinton warns of dangers as he quits Google - BBC News

====================================================================  

Không riêng gì Hinton, các khoa học gia về điện toán vi tính hiện đại hiện nhất hiện tại đều đồng loạt lo ngại về khả năng nguy hiểm đáng báo động của AI.


Ngay cả Elon Musk ông chủ của SpaceX và hãng xe điện Tesla vừa cùng hơn 1000  khoa học gia cầm đầu về công nghệ điện toán đã ký chung một bản CÔNG BỐ 2023 yêu cầu TẠM DỪNG PHÁT TRIỂN CÔNG CUỘC THỬ NGHIỆM AI do khả năng phát triển kỹ thuật tiếp tục của AI sẽ đưa tới “RỦI RO ĐÁNG SỢ CHO NHÂN LOẠI”.

RỦI RO DO TRÍ THÔNG MINH NHÂN TẠO LÀ ĐIỀU CÓ THỂ VÀ CHÚNG LÀ NHỮNG GÌ

Nó bao gồm trong các lĩnh vực đáng quan tâm nhất

1-    MẤT CÔNG ĂN VIỆC LÀM TRONG KỸ NGHỆ XE HƠI

2-    TIN GIẢ -FAKE NEWS

3-    XÂM PHẠM ĐỜI TƯ CÁ NHÂN

4-    HỘI CHỨNG GIA TĂNG THÀNH KIẾN BẢO THỦ DO THÔNG TIN ĐỘC HẠI CỦA TRÍ THÔNG MINH NHÂN TẠO ĐƯA TỚI

5-    TRÍ THÔNG MINH NHÂN TẠO CÒN CÓ KHẢ NĂNG GÂY RA BẤT BÌNH ĐẲNG TRONG QUAN HỆ KINH TẾ XÃ HỘI (SOCI-ECONOMIC)

6-    TRÍ THÔNG MINH NHÂN TẠO  CÓ THỂ  LŨNG ĐOẠN NỀN KINH TẾ THỊ TRƯỜNG

7-    NGUY NAN TỪ VŨ KHÍ TỰ ĐỘNG DO TRÍ THÔNG MINH NHÂN TẠO ĐIỀU KHIỂN 

8-    TRÍ THÔNG MINH NHÂN TẠO CÓ THỂ LỌT RA NGOÀI TẦM QUYỂN SOÁT CỦA CON NGƯỜI



cố giáo sư bác học vật lý là Stephen Hawking từng cảnh báo:

Con người, sinh vật bị giới hạn
do sự tiến hóa sinh học chậm chạp,
không thể cạnh tranh với AI và sẽ bị thay thế...

Còn nhiều câu hỏi về NHỮNG ai là người ĐẦU TIÊN phát triển AI  và mục đích của họ cuối cùng là gì trong các vấn nạn và hệ lụy từ AI đưa tới. Dầu sao chúng ta cần có cách nhìn rõ nét hơn về nguy nan tiềm tàng của trí thông minh nhân tạo hầu cùng nhau đưa tới các DỰ PHÒNG CẤP TỐC ĐỂ CỨU NGUY CHO Con người...

***

                PHẦN HAI 

 

12 HIỂM HỌA CỦA TRÍ THÔNG MINH NHÂN TẠO SẼ MANG LẠI CHO NHÂN LOẠI

1-    TRÍ THÔNG MINH NHÂN TẠO THIẾU TÍNH MINH BẠCH VÀ KHẢ NĂNG GIẢI THÍCH

Ngay cả khi AI trực tiếp làm việc với kỹ thuật hiện đại trong đó có rất nhiều lợi ích từ AI mang lại nhưng chúng ta càng lúc càng rất khó mà hiểu được nó mỗi khi AI kết hợp với các kiểu mẫu tự học (deep learning).  Điều này đưa đến thiếu minh bạch về cách và lý do khi AI khi tự chúng đưa ra kết luận. Lý do chính yếu do con người càng lúc càng thụ động thừa hưởng những gì do AI mang lại. Ứng dụng AI nhưng chẳng cần và không hiểu được do sao. Nhu cầu an toàn cho con người là dùng những gì của AI nào có thể giải thích được. Như vậy sẽ còn một chặng đường khá lâu trước khi con người tìm được sự minh bạch từ AI.

2-    CON NGƯỜI SẼ MẤT CÔNG ĂN VIỆC LÀM TỪ NỀN SẢN XUẤT TỰ ĐỘNG HÓA 


ĐẾN KHI CỔ MÁY THÔNG MINH  BIẾT TỰ HỌC 

    Các khoa học gia về máy tính như Ray Kurzweil tốt nghiệp Trường Công Nghệ Massacchussetts (MIT) vừa là một nhà đầu tư cùng nghiên cứu, ông cho rằng Trí Thông Minh Nhân Tạo (AI) có thể vượt qua trí thông minh cổ điển của con người và tiếp tục ‘tự học để thăng tiến’.
 Suy nghĩ chuyện này các nhà nghiên cứu đều cho rằng “những chiếc tàu chạy bằng hơi nước không thể tự nó để trở thành những chiếc tàu hơi nước chạy tốt hơn.  Tuy nhiên thời đại hôm nay AI  lại rất khác do chúng có thể TỰ HỌC ĐỂ TỰ NÓ CÀNG THÔNG MINH HƠN!

Tự động hóa công việc là mối lợi từ AI cung cấp cho chúng ta nhưng lại nảy sinh ra  mối quan tâm cấp bách khi công nghệ này được áp dụng trong các ngành như tiếp thị, sản xuất và chăm nom sức khỏe . Đến năm 2030, các công việc đó sẽ do AI chiếm tới 30% số giờ làm trong nền kinh tế Hoa Kỳ nhờ vào tự động hóa và robot hóa nhân viên  Da đen và gốc Hispanic tại Hoa Kỳ đặc biệt dễ bị mất việc trước sự thay đổi này. Goldman Sachs một tổ hợp đầu tư lớn của thế giới còn tuyên bố sẽ có  300 triệu việc làm toàn thời gian của thế giới có thể bị mất do tự động hóa của AI.

Khi robot và AI trở nên thông minh hơn và khéo léo hơn, người ta sẽ cần ít người hơn. Cho dù có lập luận cho rằng sẽ có 97 triệu việc làm mới vào năm 2025 nhờ vào Trí Thông Minh Nhân Tạo, nhưng nhiều nhân viên thiếu kỹ năng cần thiết cho các vai trò kỹ thuật đó sẽ mất việc. Ngay cả những ngành nghề cần bằng cấp và đào tạo bổ sung của con người sau đại học cũng không tránh khỏi sự thay thế của AI.

Chiến lược gia công nghệ là Chris Messina cho hay ngay cả các nghề của luật và kế toán cũng sắp bị AI ‘lấn sân’? Chuyện này nghe qua có vẻ vô lý một robot cũng làm thầy cãi thế luật sư ư? Vấn đề là thế này…có quá nhiều tài liệu tham cứu hàng ngàn hàng vạn trang chỉ có AI mới giúp các luật sư khỏi bị mất thì giờ và do không có thì giờ thì dễ dàng để bỏ lỡ các chi tiết để thắng vụ kiện... Vì vậy, AI có khả năng kết hợp và cung cấp một cách toàn diện hợp đồng tốt nhất và cho kết quả mà chúng ta đang cố gắng đạt được. Đó là lý do AI có lẽ sẽ thay thế rất nhiều luật sư của công ty luật nào đó. Còn y học thì sao? Chúng ta ắt hẳn đã đọc nhiều tin tức y học trong đó AI đóng vai trò quan trọng trong giải phẫu, giải phẫu từ xa, kể cả khám chữa phụ cho bác sĩ vv…

3.  THUẬT TOÁN ĐIỆN TOÁN CỦA TRÍ THÔNG MINH NHÂN TẠO CÓ KHẢ NĂNG THAO TÚNG XÃ HỘI (social manupulation)

 Thao túng xã hội cũng là mối nguy hiểm từ trí tuệ nhân tạo. Nỗi sợ hãi này đã trở thành hiện thực khi các chính trị gia dựa vào AI để quảng bá quan điểm của họ. Ví dụ gần nhất Ferdinand Marcos, Jr., sử dụng đội quân troll TikTok để giành phiếu bầu của những người Philippines trẻ tuổi trong cuộc bầu cử năm 2022 của họ. Vấn đề Marcos đang là TT Phi luật Tân là sự thật và TikTok là công cụ đang là ví dụ cụ thể về cơ cấu  truyền thông xã hội hiện đại đang dựa trên khả năng điện toán của Trí Thông Minh Nhân Tạo. Các cuộc bầu cử tại Mỹ vừa qua những đồn đoán về bàn tay của Nga nhúng vào? Nếu Nga có làm thì ắt phải ứng dụng AI.

 

4. CÔNG NGHỆ TRÍ THÔNG MINH NHÂN TẠO ĐÃ ĐƯỢC SỬ DỤNG ĐỂ GIÁM SÁT XÃ HỘI

 

Một ví dụ điển hình là việc Trung Cộng hiện sử dụng công nghệ nhận dạng khuôn mặt trong văn phòng, trường học và các địa điểm khác. Bên cạnh việc theo dõi các chuyển động của một người, chính phủ Trung Quốc có thể thu thập đủ dữ liệu để giám sát các hoạt động, mối quan hệ và quan điểm chính trị của mọi người. Tại Hoa Kỳ cũng vậy, Các sở cảnh sát Mỹ từng áp dụng các thuật toán lập chính sách dự đoán để biết trước nơi tội phạm sắp xảy ra. Từ đó chúng ta đặt ra câu hỏi liệu AI có thể trở thành vũ khí độc tài hay không.

 

5. TRÍ THÔNG MINH NHÂN TẠO ĐÃ XÂM PHẠM VÀO QUYỀN RIÊNG TƯ VỀ DỮ LIỆU

Các hệ thống AI thường thu thập dữ liệu cá nhân để tùy chỉnh trải nghiệm người dùng hoặc để giúp đào tạo các mô hình AI mà bạn đang sử dụng Mặc dù có luật bảo vệ thông tin cá nhân trong một số trường hợp ở Hoa Kỳ, nhưng không có luật liên bang rõ ràng nào bảo vệ công dân khỏi tác hại của quyền riêng tư dữ liệu do AI gây ra. Hậu quả kẻ xấu đã sử dụng AI làm công cụ giả tiếng nói, khuôn mặt cá nhân để lường gạt người thân gia đình của họ cùng nhiều điều phi pháp khác. Đã có nhiều lường gạt do AI gây ra đã đăng tải trên truyền thông mà chúng ta đã đọc.

6- THÀNH KIẾN ĐẾN TỪ TRÍ THÔNG MINH NHÂN TẠO

AI được phát triển bởi con người — và con người vốn đã có thành kiến.  Kinh nghiệm hạn chế của những người tạo AI có thể giải thích tại sao AI nhận dạng giọng nói thường không hiểu một số phương ngữ và giọng nói nhất định nào đó. Các công ty không xem xét hậu quả của việc một chatbot mạo danh những nhân vật khét tiếng trong lịch sử loài người. Các nhà phát triển và doanh nghiệp nên thận trọng hơn để tránh tạo ra những thành kiến và định kiến khiến các nhóm cộng đồng thiểu số gặp rủi ro và bất công đối xử.

 

7. TRÍ THÔNG MINH NHÂN TẠO CÓ KHẢ GÂY BẤT BÌNH ĐẲNG KINH TẾ XÃ HỘI

Nếu các công ty không thừa nhận những thành kiến vốn có trong các thuật toán AI, thì họ có thể thỏa hiệp với thành kiến của AI thông qua tuyển dụng do AI cung cấp. Ý tưởng cho rằng AI có thể đo lường các đặc điểm của ứng viên thông qua phân tích khuôn mặt và giọng nói vẫn bị ảnh hưởng bởi thành kiến chủng tộc từ con người tạo ra AI

Những công nhân cổ xanh (blue collar) thực hiện các công việc thủ công giản dị, lặp đi lặp lại nhiều hơn đã bị giảm lương tới 70%  tự động hóa. Trong khi đó, những người lao động cổ cồn trắng (white collar) hầu như không bị ảnh hưởng, thậm chí một số người còn được hưởng mức lương cao hơn. Mặt khác, việc hiểu rõ AI và tự động hóa mang lại lợi ích cho giới chủ nhân nhưng AI đã gây thiệt hại cho số đông những người nghèo khác trong xã hội.

 

8. TRÍ THÔNG MINH NHÂN TẠO CÓ THỂ GÂY RA SUY GIẢM ĐẠO ĐỨC CÙNG MỐI THIỆN TÂM

Pope on artificial intelligence: Technology is a human characteristic

Thánh Cha Francis nói …Có hai mặt của công nghệ, Một mặt, chúng ta không thể thiếu nó; mặt khác, nó áp đặt logic của nó lên chúng ta. Công nghệ là một đặc điểm của con người. Tuy nhiên, điều mà chúng ta phải biết là các thiết bị khoa học chỉ mô phỏng khả năng của con người làm gì, trên thực tế nó thiếu phẩm chất của con người. Đức Giáo hoàng cho rằng các cỗ máy AI không thể xem xét các trải nghiệm và những phẩm chất  của lương tâm


Các nhà công nghệ, nhà báo và chính trị gia và ngay các vị lãnh đạo tôn giáo cũng đang gióng lên hồi chuông cảnh báo về những cạm bẫy kinh tế xã hội tiềm năng do Trí Thông Minh Nhân Tạo mang lại cho xã hội loài người. Trong một cuộc họp tại Vatican năm 2019 dưới nhan đề “Lợi ích chung trong thời đại kỹ thuật số”, Đức Thánh Cha Francis đã cảnh báo về khả năng của AI trong việc “lưu hành các ý kiến thiên vị và dữ liệu sai lạc. Ngài nhấn mạnh những hậu quả sâu rộng của việc để công nghệ AI phát triển mà không có sự giám sát hoặc hạn chế thích hợp nào đó.

Đức Thánh Cha nói thêm “Nếu thứ gọi là tiến bộ công nghệ của loài người đang trở thành kẻ thù của lợi ích chung, thì điều này sẽ dẫn đến một sự thụt lùi đáng tiếc về một hình thức man rợ được quy định bởi luật của  kẻ mạnh nhất.” Sự gia tăng nhanh chóng của các công cụ AI tổng quát như ChatGPT và Bard khiến những lo ngại này trở nên có cơ sở hơn. Nhiều người dùng đã áp dụng kỹ thuật này để tránh né tự mình làm bài viết, phá hoại tính toàn vẹn  trung thực trong sáng tạo và học hànhChúng ta đang lo ngại cho dù có nhiều nhân vật quyền lực chỉ ra sự nguy hiểm của trí tuệ nhân tạo, thì chúng ta vẫn sẽ tiếp tục dùng nó nếu có tiền

 

9. TRÍ THÔNG MINH NHÂN TẠO CHỈ HUY VŨ KHÍ TỰ ĐỘNG LẠI CÀNG RỦI RO HƠN

                     chó robot mang súng liên thanh tự hành

Tiến bộ công nghệ đã được con người khai thác cho mục đích chiến tranh. Khi nói đến AI, một số người muốn làm gì đó trước khi quá trễ tràng: Trong một bức thư ngỏ năm 2016, hơn 30.000 cá nhân, bao gồm cả các nhà nghiên cứu AI và robot, đã phản đối việc đầu tư vào vũ khí tự trị sử dụng năng lực AI. Họ viết: “Câu hỏi quan trọng đối với loài người hôm nay là nên bắt đầu một cuộc chạy đua vũ trang AI toàn thế giới hay ngăn chặn nó.

Mikhail Kalashnikov nhà sáng tạo ra AK-47 đã qua đời 2013 thọ 94 

ông lấy làm hối tiếc đã tạo ra khẩu súng liên thanh đầu tiên của loài người đã giết chết không biết bao nhiêu triệu người . Lúc ông sang thăm Đức vào năm 2002 ông  đã tỏ ra hối hận  tại sao ông không sáng tạo ra một cái máy nào giúp cho nông dân hơn là thứ vũ khí giết người như AK 47 . AK 47 hiện nay là một công cụ giết người phổ biến do phe khủng bố Hồi Giáo Cực Đoan ưa dùng nhất

Nếu cường quốc quân sự nào cũng đẩy mạnh phát triển vũ khí AI, thì một cuộc chạy đua vũ trang toàn cầu hầu như không thể tránh khỏi và điểm cuối của quỹ đạo công nghệ này là hiển nhiên: vũ khí tự hành sẽ trở thành Kalashnikov trong tương lai (hình trên).Dự đoán này đã trở thành hiện thực dưới dạng Hệ thống vũ khí tự hành gây chết người, tự xác định vị trí và tiêu diệt mục tiêu. Do sự phổ biến của vũ khí mạnh và phức tạp, một số quốc gia hùng mạnh nhất thế giới đã lo lắng và góp phần vào một cuộc chiến tranh lạnh vê công nghệ. Nhiều loại vũ khí mới này gây rủi ro lớn cho dân thường trên mặt đất, nhưng mối nguy hiểm trở nên lớn hơn khi vũ khí tự trị rơi vào tay kẻ xấu. Tin tặc đã thành thạo nhiều loại tấn công mạng khác nhau, vì vậy chúng rất dễ xâm nhập vào vũ khí tự hành để gây ra cuộc chiến tranh thế giới.

10. TRÍ THÔNG MINH NHÂN TẠO VỚI THUẬT TOÁN CỦA NÓ CÓ THỂ GÂY RA KHỦNG HOẢNG TÀI CHÍNH

 

Hàng ngày ngành tài chính thế giới đang cần sự tham gia của công nghệ AI vào các quy trình giao dịch và tài chính. Các thuật toán này sau đó thực hiện hàng nghìn giao dịch với tốc độ chóng mặt với mục tiêu bán sau vài giây để kiếm lợi nhuận nhỏ. Việc bán tháo hàng nghìn giao dịch có thể khiến các nhà đầu tư sợ hãi làm điều tương tự, dẫn đến sự cố đột ngột và thị trường biến động cực độ. Các trường hợp như Flash Crash năm 2010 và Flash Crash của Knight Capital (có ghi chú ở dưới) nhắc nhở về những gì có thể xảy ra khi các thuật toán thỏa mãn giao dịch trở nên điên cuồng, bất kể giao dịch nhanh và lớn có chủ đích hay không.

=================================== 

chú thích 

Flash Crash: Tai nạn tài chính chớp nhoáng ngày 6 tháng 5 năm 2010, còn được gọi là sự cố 2:45 hoặc đơn giản là Flash Crash, là một sự cố chớp nhoáng  nhưng mất tới trị giá hàng nghìn tỷ đô la Mỹ(một loại chứng khoán sụp đổ thị trường) bắt đầu lúc 2:32 chiều. EDT và kéo dài khoảng 36 phút.

Flash Crash of Knight Captial : Knight Captital là công ty có mặt trong sàn chứng khoán với

hơn 17% thị phần trên sàn giao dịch New York là một thành phần ủng hộ Thuật Toán trong giao dịch chứng khoán. Vào tháng 8 năm 2012 cũng bị xảy ra một biến cố tài chính, công ty đã mất ngay 440 triệu USD chỉ trong 45 phút khi Thuật Toán mới của họ vừa đi vào hoạt động. Lỗi thuật toán đã gây ra sự sụp đổ tồi tệ trong giao dịch chứng khoán

===================================

...

 Điều này không có nghĩa là AI không có gì để cung cấp cho thế giới tài chính. Trên thực tế, các thuật toán AI có thể giúp các nhà đầu tư đưa ra quyết định thông minh hơn và sáng suốt hơn trên thị trường tài chính. Nhưng các tổ chức tài chính cần chắc chắn rằng họ hiểu các thuật toán AI của mình và cách các thuật toán đó đưa ra quyết định. Các công ty nên cân nhắc liệu AI làm tăng hay giảm niềm tin của họ trước khi giới thiệu công nghệ này để tránh gây ra nỗi hoảng loạn cho các nhà đầu tư và tạo ra sự hỗn loạn tài chính.

11. TRÍ THÔNG MINH NHÂN TẠO CÓ THỂ TRÁNH NÉ ẢNH HƯỞNG CỦA CON NGƯỜI

Việc phụ thuộc quá nhiều vào công nghệ AI có thể dẫn đến việc mất đi ảnh hưởng của con người — và sự thiếu vắng hoạt động của con người — ở một số bộ phận trong xã hội. Chẳng hạn, sử dụng AI trong chăm sóc sức khỏe có thể làm giảm đồng cảm và lý luận của chúng ta. Việc áp dụng trí tuệ nhân tạo AI cho những nỗ lực sáng tạo lại tự nó có thể làm giảm khả năng sáng tạo và biểu hiện cảm xúc của con người. Tương tác với các hệ thống AI quá nhiều thậm chí có thể làm giảm mạnh năng khiếu giao thiệp xã hội. Vì vậy, trong khi AI có thể rất hữu ích để tự động hóa các công việc hàng ngày, chúng ta có thể hỏi ra một số câu hỏi, liệu nó có thể kìm hãm trí thông minh, khả năng và nhu cầu con người hay không.

 

12. TRÍ THÔNG MINH NHÂN TẠO  TỰ NHẬN THỨC LẤY VÀ CHẲNG AI KIỂM SOÁT NÓ CẢ'

vào năm 2015 bác học Stephen Hawking cùng Elon Musk -nhà đồng sáng lập Apple là Steve Wozniak  với mấy mươi nhà nghiên cứu về robot cùng AI đã đưa ra một Lá Thư Cảnh Báo cuối cùng về sự nguy hiểm nói khác đi về mối họa tiềm ẩn của tương lai về thế hệ Robot cùng AI.

Trong Lá Thư Cảnh Báo đồng ký tên đó có đoạn:

 ...Môt ngày nào đó chúng ta có thể mất kiểm soát các hê thống Thông Minh Nhân Tạo (AI) do sự gia tăng của Siêu Trí Tuệ nó sẽ bất tuân lệnh con người. Rồi các hệ thống như thế sẽ đe dọa loài người. Do sao mà tình huống này có thể phát sinh? Chúng ta đã có đầu tư hợp lý nào để nghiên cứu và hiểu rõ các tình trạng nguy hiểm đó sẽ xảy ra trong nay mai hay chưa? Chúng ta có dự phòng khả năng nào đó đối phó với một dạng siêu trí tuệ nguy hiểm hay ngay cả một sự xuất hiện của tình trạng "bùng nổ thông minh" hay không?


Hiện đang có nhiều lo ngại rằng AI sẽ phát triển trí thông minh nhanh đến mức nó sẽ tự nó trở nên có tri giác và hành động ngoài tầm kiểm soát của con người - có thể theo cách ác độc hơn. Các báo cáo bị cáo buộc về tình cảm này đã xảy ra. Một cựu kỹ sư của Google, người đã nói rằng AI- chatbot LaMDA có tri giác và nói chuyện với anh ta giống như một người bình thường. Khi AI cuối cùng tạo ra các hệ thống có trí thông minh nhân tạo nói chung và cuối cùng là siêu trí tuệ nhân tạo, những lời kêu gọi ngăn chặn hoàn toàn những sự phát triển này vẫn tiếp tục gia tăng./.


ĐHL BIÊN SOẠN 7.8.2023

CÁC NGUỒN THAM KHẢO 

RISKS OF ARTIFICIAL INTELLIGENCE

https://builtin.com/artificial-intelligence/risks-of-artificial-intelligence

AI 'GODFATHER' GEOFREY HINTON WARNS OF DANGERS AS HE QUITS GOOGLE

AI 'godfather' Geoffrey Hinton warns of dangers as he quits Google - BBC News

Don't Let Artificial Intelligence Take Over, Top Scientists Warn

FIND WHAT ELON MUSK SAID ABOUT REAL WORLD AI 


Pope on artificial intelligence: Technology is a human characteristic



(1) Don't Let Artificial Intelligence Take Over, Top Scientists Warn


(2) FIND WHAT ELON MUSK SAID ABOUT REAL WORLD AI 


(3) Elon Musk: ‘Mark my words — A.I. is far more dangerous than nukes’



(4) VOX: WHY ELON MUSK FEARS OF AI

No comments:

Post a Comment