Geoffrey
Hinton là ai?
Geoffrey
Hinton là nhà Tâm Lý Học Nhận Thức (Cognitive Psychologist) ông cũng là Khoa Học Gia về Máy điện Toán người
Canada gốc Anh quốc. Hinton là người đã làm việc lâu dài với Google hơn một thập
kỷ. Khoa học gia Hinton và nhóm của ông có trách nhiệm chịu trách nhiệm về
Google Photos mà chúng ta hay thấy.
Hinton
cũng đã hoàn thành công việc nổi bật trong sáng tạo trong lĩnh vực mạng thần
kinh (neural network), công việc này đã mang tới các quảng cáo rầm rộ hôm nay như ChatGPT
và các chatbot AI khác. Mặc dù
Hinton không trực tiếp quan hệ với OpenAI, nhưng một trong những sinh viên của ông hiện là nhà khoa học trưởng tại
công ty AI do Microsoft đài thọ.
MƯỜI HAI ĐIỀU LO NGẠI VỀ TRÍ THÔNG MINH NHÂN TẠO (AI)
Công nghệ ứng dụng về Trí
Thông Minh Nhân Tạo (AI) càng lúc càng nhiều
kỹ xảo tinh vi và phát triển rộng khắp toàn cầu. Tuy thế càng lúc càng có nhiều
lời CẢNH BÁO về sự nguy hiểm của AI,
lời cảnh báo đó càng lúc càng nhiều hơn.
Geoffrey Hinton được coi là “Bố Già của AI” (AI Godfather) nhưng ông báo động:
-“AI càng lúc càng thông minh hơn chúng ta và có khả năng
quyết định nhằm chiếm quyền kiểm soát chúng ta. Con người cần chú ý để ngăn
chận vấn nạn này xảy ra” .
Tưởng cũng cần biết thêm Hinton là chủ
nhân sáng lập cơ sở và chế tạo ra cỗ
máy tự học và Thuật Toán về Mạng Thần Kinh Vi Tính (neural network
algorithms). Vào năm 2023 Hinton rời chức vụ tại Google ngõ hầu có cơ hội TƯ DO
BÁO ĐỘNG VỀ CÁC ĐIỀU NGUY HẠI CỦA Trí Thông Minh Nhân Tạo mà không bị một ràng
buộc hay lấn cấn nào dù Hinton phải mất
đi rất nhiều quyền lợi riêng tư trong vị trí của ông tại Google.
======================
chú thích
Neural network: Mạng Thần Kinh trong điện toán cố gắng mô phỏng theo chức năng như bộ não con người, với sự kết hợp khoa học vi tính, thống kê học để giải quyết các vấn đề trong nhiệm vụ của Trí Thông Minh Nhân Tạo
Thuật
Toán (algorithm)
Theo
tự điển Merriam-Webster thì algorithm là một tiến trình để giải quyết một vấn đề
toán học với một số bước hữu hạn và liên tục lập lại nhiều lần theo thao tác
nào đó. Theo dictionary.com, từ này xuất hiện từ 1690-1700 theo tiếng Hy Lạp là
arithmós có nghĩa là number / số
Trong
điện toán. Algorithm -Thuật Toán là một tập hợp các lệnh mà máy tính phải tuân
theo để thực hiện các phép tính hoặc các hoạt động giải quyết vấn đề khác. Theo
định nghĩa chính thức của nó, một thuật toán là một tập hợp hữu hạn các hướng dẫn
được thực hiện theo một thứ tự cụ thể để thực hiện một công việc cụ thể.
======================================
trích
THEO BBC
HINTON được nhiều người coi là Bố Già của trí tuệ nhân
tạo (Godfather of AI) nhưng đã nghỉ việc, cảnh báo về những nguy cơ ngày càng tăng cao trong lĩnh vực AI
Geoffrey Hinton năm nay 75 tuổi, đã tuyên bố từ chức khỏi Google trong một tuyên bố gửi cho tờ New York Times, nói rằng giờ đây ông rất hối hận về công việc của mình đã làm. Ông nói với BBC một
số mối nguy hiểm của chatbot AI quả
thật sẽ "khá đáng sợ". "Ngay bây
giờ tuy chúng chưa thông minh hơn chúng ta,nhưng ông hiểu Trí Thông Minh Nhân Tạo nó có thể vượt con người trong thời gian ngắn nữa thôi ...
AI 'godfather' Geoffrey Hinton warns of dangers as he quits Google - BBC News
====================================================================
Không riêng gì Hinton, các khoa học gia về điện toán vi
tính hiện đại hiện nhất hiện tại đều đồng
loạt lo ngại về khả năng nguy hiểm đáng báo động của AI.
Ngay cả Elon Musk ông chủ của SpaceX và hãng xe điện Tesla vừa cùng hơn 1000 khoa học gia cầm đầu về công nghệ điện toán đã ký chung một bản CÔNG BỐ 2023 yêu cầu TẠM DỪNG PHÁT TRIỂN CÔNG CUỘC THỬ NGHIỆM AI do khả năng phát triển kỹ thuật tiếp tục của AI sẽ đưa tới “RỦI RO ĐÁNG SỢ CHO NHÂN LOẠI”.
RỦI RO DO TRÍ THÔNG MINH NHÂN TẠO LÀ ĐIỀU CÓ THỂ VÀ CHÚNG LÀ NHỮNG GÌ
Nó bao gồm trong các lĩnh vực đáng quan tâm nhất
1-
MẤT CÔNG ĂN VIỆC LÀM
TRONG KỸ NGHỆ XE HƠI
2-
TIN GIẢ -FAKE NEWS
3-
XÂM PHẠM ĐỜI TƯ CÁ NHÂN
4-
HỘI CHỨNG GIA TĂNG THÀNH KIẾN BẢO THỦ DO THÔNG TIN ĐỘC HẠI CỦA TRÍ THÔNG MINH NHÂN TẠO ĐƯA TỚI
5- TRÍ THÔNG MINH NHÂN TẠO CÒN CÓ KHẢ NĂNG GÂY RA BẤT
BÌNH ĐẲNG TRONG QUAN HỆ KINH TẾ XÃ HỘI (SOCI-ECONOMIC)
6- TRÍ THÔNG MINH NHÂN TẠO CÓ THỂ LŨNG
ĐOẠN NỀN KINH TẾ THỊ TRƯỜNG
7-
NGUY NAN TỪ VŨ KHÍ TỰ
ĐỘNG DO TRÍ THÔNG MINH NHÂN TẠO ĐIỀU KHIỂN
8- TRÍ THÔNG MINH NHÂN TẠO CÓ THỂ LỌT RA NGOÀI TẦM QUYỂN SOÁT CỦA CON NGƯỜI
Còn nhiều câu hỏi về NHỮNG ai là người ĐẦU TIÊN phát triển AI và mục đích của họ cuối cùng là gì trong các vấn nạn và hệ lụy từ AI đưa tới. Dầu sao chúng ta cần có cách nhìn rõ nét hơn về nguy nan tiềm tàng của trí thông minh nhân tạo hầu cùng nhau đưa tới các DỰ PHÒNG CẤP TỐC ĐỂ CỨU NGUY CHO Con người...
***
PHẦN HAI
12 HIỂM HỌA CỦA TRÍ THÔNG
MINH NHÂN TẠO SẼ MANG LẠI CHO NHÂN LOẠI
1-
TRÍ THÔNG MINH NHÂN TẠO
THIẾU TÍNH MINH BẠCH VÀ KHẢ NĂNG GIẢI THÍCH
Ngay cả khi AI trực tiếp làm việc với kỹ thuật hiện đại
trong đó có rất nhiều lợi ích từ AI mang lại nhưng chúng ta càng lúc càng rất
khó mà hiểu được nó mỗi khi AI kết hợp
với các kiểu mẫu tự học (deep learning). Điều này đưa đến thiếu minh bạch về cách và lý do khi AI khi tự chúng đưa ra kết
luận. Lý do chính yếu do con người càng lúc càng thụ động thừa hưởng những gì do AI mang lại. Ứng dụng AI nhưng
chẳng cần và không hiểu được do sao. Nhu
cầu an toàn cho con người là dùng những gì của AI nào có thể giải thích
được. Như vậy sẽ còn một chặng đường khá lâu trước khi con người tìm được sự
minh bạch từ AI.
2-
CON NGƯỜI SẼ MẤT CÔNG
ĂN VIỆC LÀM TỪ NỀN SẢN XUẤT TỰ ĐỘNG HÓA
Các khoa học gia về máy tính như Ray Kurzweil tốt nghiệp Trường Công Nghệ Massacchussetts (MIT) vừa là một nhà đầu tư cùng nghiên cứu, ông cho rằng Trí Thông Minh Nhân Tạo (AI) có thể vượt qua trí thông minh cổ điển của con người và tiếp tục ‘tự học để thăng tiến’.
Tự động hóa công
việc là mối lợi từ AI cung cấp cho chúng ta nhưng lại nảy sinh ra mối quan tâm cấp bách khi công nghệ này được
áp dụng trong các ngành như tiếp thị,
sản xuất và chăm nom sức khỏe . Đến
năm 2030, các công việc đó sẽ do AI chiếm tới 30% số giờ làm trong nền kinh tế
Hoa Kỳ nhờ vào tự động hóa và robot hóa nhân viên Da đen và gốc Hispanic tại Hoa Kỳ đặc biệt dễ
bị mất việc trước sự thay đổi này. Goldman Sachs một tổ hợp đầu tư lớn của thế
giới còn tuyên bố sẽ có 300 triệu việc làm toàn thời gian của
thế giới có thể bị mất do tự động hóa của
AI.
Khi robot và AI trở nên thông minh hơn và
khéo léo hơn, người ta sẽ cần ít người hơn. Cho dù có lập luận cho rằng sẽ
có 97 triệu việc làm mới vào năm
2025 nhờ vào Trí Thông Minh Nhân Tạo, nhưng nhiều nhân viên thiếu kỹ năng cần
thiết cho các vai trò kỹ thuật đó sẽ mất việc. Ngay cả những ngành nghề cần
bằng cấp và đào tạo bổ sung của con người sau đại học cũng không tránh khỏi sự
thay thế của AI.
Chiến lược gia công nghệ là Chris Messina cho hay ngay cả các nghề của luật và kế toán cũng sắp bị AI ‘lấn sân’?
Chuyện này nghe qua có vẻ vô lý một robot cũng làm thầy cãi thế luật sư ư? Vấn
đề là thế này…có quá nhiều tài liệu tham cứu hàng ngàn hàng vạn trang chỉ có AI
mới giúp các luật sư khỏi bị mất thì giờ và do không có thì giờ thì dễ dàng để
bỏ lỡ các chi tiết để thắng vụ kiện... Vì vậy, AI có khả năng kết hợp và cung cấp một cách toàn diện hợp
đồng tốt nhất và cho kết quả mà chúng ta đang cố gắng đạt được. Đó là lý do AI
có lẽ sẽ thay thế rất nhiều luật sư của công ty luật nào đó. Còn y học thì sao?
Chúng ta ắt hẳn đã đọc nhiều tin tức y học trong đó AI đóng vai trò quan trọng
trong giải phẫu, giải phẫu từ xa, kể cả khám chữa phụ cho bác sĩ vv…
3. THUẬT TOÁN
ĐIỆN TOÁN CỦA TRÍ THÔNG MINH NHÂN TẠO CÓ KHẢ NĂNG THAO TÚNG XÃ HỘI (social
manupulation)
Thao
túng xã hội cũng là mối nguy hiểm từ trí tuệ nhân tạo. Nỗi sợ hãi này đã trở thành hiện thực khi các chính trị gia dựa
vào AI để quảng bá quan điểm của họ. Ví dụ gần nhất Ferdinand Marcos, Jr., sử dụng đội quân troll TikTok để giành phiếu bầu của những người Philippines trẻ
tuổi trong cuộc bầu cử năm 2022 của họ. Vấn đề Marcos đang là TT Phi luật Tân
là sự thật và TikTok là công cụ đang là ví dụ cụ thể về cơ cấu truyền thông xã hội hiện đại đang dựa trên khả
năng điện toán của Trí Thông Minh Nhân Tạo. Các cuộc bầu cử tại Mỹ vừa qua
những đồn đoán về bàn tay của Nga nhúng vào? Nếu Nga có làm thì ắt phải ứng
dụng AI.
4. CÔNG
NGHỆ TRÍ THÔNG MINH NHÂN TẠO ĐÃ ĐƯỢC SỬ DỤNG ĐỂ GIÁM SÁT XÃ HỘI
Một ví dụ điển hình là việc Trung Cộng hiện
sử dụng công nghệ nhận dạng khuôn mặt trong văn phòng, trường học và các địa
điểm khác. Bên cạnh việc theo dõi các chuyển động của một người, chính phủ
Trung Quốc có thể thu thập đủ dữ liệu để giám sát các hoạt động, mối quan hệ và
quan điểm chính trị của mọi người. Tại Hoa Kỳ cũng vậy, Các
sở cảnh sát Mỹ
từng áp dụng các thuật toán lập chính sách dự đoán để biết trước nơi
tội phạm sắp
xảy ra. Từ đó chúng ta đặt
ra câu hỏi liệu
AI có thể trở
thành vũ khí độc tài
hay không.
5. TRÍ
THÔNG MINH NHÂN TẠO ĐÃ XÂM PHẠM VÀO QUYỀN RIÊNG TƯ VỀ DỮ LIỆU
Các hệ thống AI thường thu thập dữ liệu cá nhân để
tùy chỉnh trải nghiệm người dùng hoặc để giúp đào tạo các mô hình AI mà bạn đang
sử dụng Mặc dù có luật bảo vệ thông tin cá
nhân trong một số trường hợp ở Hoa Kỳ, nhưng không có luật liên bang rõ ràng
nào bảo vệ công dân khỏi tác hại của quyền riêng tư dữ liệu do AI gây ra. Hậu
quả kẻ xấu đã sử dụng AI làm công cụ giả
tiếng nói, khuôn mặt cá nhân để lường gạt người thân gia đình của họ cùng nhiều
điều phi pháp khác. Đã có nhiều lường gạt do AI gây ra đã đăng tải trên
truyền thông mà chúng ta đã đọc.
6-
thành kiến đến từ trí thông minh nhân tạo
AI được phát triển bởi con người — và con
người vốn đã có thành kiến. Kinh nghiệm hạn chế của những người tạo AI có
thể giải thích tại sao AI nhận dạng giọng nói thường không hiểu một số phương
ngữ và giọng
nói nhất định nào đó. Các
công ty không xem xét hậu quả của việc một chatbot
mạo danh những nhân vật khét tiếng trong lịch sử loài người. Các nhà phát
triển và doanh nghiệp nên thận trọng hơn để tránh tạo ra những thành kiến và
định kiến khiến các nhóm cộng đồng thiểu số gặp rủi ro và bất công đối xử.
7.
TRÍ THÔNG MINH NHÂN TẠO CÓ KHẢ GÂY BẤT BÌNH ĐẲNG KINH TẾ XÃ HỘI
Nếu các công ty không thừa nhận những thành kiến vốn có trong các thuật toán
AI, thì họ có thể thỏa hiệp với thành kiến của AI thông qua tuyển dụng do AI cung cấp.
Ý tưởng cho rằng AI có thể đo lường các đặc
điểm của ứng viên thông qua phân tích khuôn mặt và giọng nói vẫn bị ảnh hưởng bởi thành kiến chủng tộc từ con người tạo ra
AI
Những công nhân cổ xanh (blue collar)
thực hiện các công việc thủ công giản dị, lặp đi lặp lại nhiều
hơn đã bị giảm lương tới 70% vì tự động hóa. Trong khi đó, những người lao
động cổ cồn trắng (white collar) hầu như không bị ảnh
hưởng, thậm chí một số người còn được hưởng mức lương cao hơn. Mặt khác, việc
hiểu rõ AI và tự động hóa mang lại lợi ích cho giới chủ nhân nhưng AI đã
gây thiệt hại cho số đông những người nghèo khác trong xã hội.
8.
TRÍ THÔNG MINH NHÂN TẠO CÓ THỂ GÂY RA SUY GIẢM ĐẠO ĐỨC CÙNG MỐI THIỆN TÂM
Pope on artificial intelligence: Technology is a human characteristic
Thánh Cha Francis nói …Có hai mặt của công
nghệ, Một mặt, chúng
ta không thể thiếu nó; mặt khác, nó áp
đặt logic của nó lên chúng ta. Công nghệ là một đặc điểm của con người. Tuy nhiên, điều
mà chúng ta phải biết là các thiết bị khoa học chỉ mô phỏng khả năng của con
người làm gì, trên thực tế nó thiếu phẩm chất của con người. Đức Giáo hoàng
cho rằng các cỗ máy AI không thể xem xét các trải nghiệm và những phẩm chất của lương tâm
Các nhà công nghệ, nhà
báo và chính trị gia và ngay
các vị lãnh đạo tôn giáo cũng đang gióng lên hồi chuông cảnh báo về những cạm
bẫy kinh tế xã hội tiềm năng do Trí Thông Minh Nhân Tạo mang lại cho
xã hội loài người.
Trong một cuộc họp tại Vatican năm 2019 dưới nhan đề
“Lợi ích chung trong thời đại kỹ thuật số”, Đức Thánh Cha Francis đã cảnh báo
về khả năng của AI trong việc “lưu hành các ý kiến thiên vị và dữ liệu sai lạc”. Ngài nhấn
mạnh những hậu quả sâu rộng của việc để công nghệ AI
phát triển mà không có sự giám sát hoặc hạn chế thích hợp nào đó.
Đức Thánh Cha nói thêm “Nếu thứ gọi là tiến bộ công nghệ của loài người đang trở thành kẻ thù của lợi
ích chung, thì điều này sẽ dẫn đến một sự thụt lùi đáng tiếc về một hình thức
man rợ được quy định bởi luật của kẻ mạnh nhất.”
Sự gia tăng nhanh chóng của các công cụ AI tổng quát như ChatGPT và Bard khiến
những lo ngại này trở nên có cơ sở hơn. Nhiều người dùng đã áp dụng
kỹ thuật này
để tránh né tự mình làm
bài viết, phá
hoại tính toàn vẹn trung
thực trong sáng tạo và học hành.
Chúng ta đang lo ngại cho dù có nhiều nhân
vật quyền lực chỉ ra sự nguy hiểm của trí tuệ nhân tạo, thì chúng ta vẫn sẽ tiếp tục dùng nó nếu có tiền
9. TRÍ
THÔNG MINH NHÂN TẠO CHỈ HUY VŨ KHÍ TỰ ĐỘNG LẠI CÀNG RỦI RO HƠN
chó robot mang súng liên thanh tự hành
Tiến bộ công nghệ
đã được con người khai thác cho mục đích chiến tranh. Khi nói đến AI, một số người muốn làm gì đó trước khi quá
trễ tràng: Trong một bức thư ngỏ năm 2016, hơn 30.000 cá nhân, bao gồm cả các nhà nghiên cứu AI và robot, đã phản
đối việc đầu tư vào vũ khí tự trị sử
dụng năng lực AI. Họ viết: “Câu hỏi
quan trọng đối với loài người hôm nay là nên bắt đầu một cuộc chạy đua vũ trang AI toàn
thế giới hay ngăn chặn nó.
Mikhail Kalashnikov nhà sáng tạo ra AK-47 đã qua đời 2013 thọ 94
ông lấy làm hối tiếc đã tạo ra khẩu súng liên thanh đầu tiên của loài người đã giết chết không biết bao nhiêu triệu người . Lúc ông sang thăm Đức vào năm 2002 ông đã tỏ ra hối hận tại sao ông không sáng tạo ra một cái máy nào giúp cho nông dân hơn là thứ vũ khí giết người như AK 47 . AK 47 hiện nay là một công cụ giết người phổ biến do phe khủng bố Hồi Giáo Cực Đoan ưa dùng nhất
Nếu cường quốc
quân sự nào cũng đẩy mạnh phát triển vũ khí AI, thì một cuộc chạy đua vũ trang
toàn cầu hầu như không thể tránh khỏi và điểm cuối của quỹ đạo công nghệ này là
hiển nhiên: vũ khí tự hành sẽ trở thành Kalashnikov trong
tương lai (hình trên).Dự đoán này đã trở thành hiện thực dưới
dạng Hệ thống vũ khí tự hành gây chết người, tự xác định vị trí và tiêu diệt
mục tiêu. Do sự phổ biến của vũ
khí mạnh và phức tạp, một số quốc gia hùng mạnh nhất thế giới đã lo lắng và góp
phần vào một cuộc chiến tranh lạnh vê công
nghệ. Nhiều loại vũ khí mới này gây rủi ro lớn cho dân thường trên mặt đất,
nhưng mối nguy hiểm trở nên lớn hơn khi vũ khí tự trị rơi vào tay kẻ xấu.
Tin tặc đã thành thạo nhiều loại tấn công mạng khác nhau, vì
vậy chúng rất dễ xâm nhập vào vũ khí tự hành để gây ra cuộc chiến tranh thế
giới.
10. TRÍ
THÔNG MINH NHÂN TẠO VỚI THUẬT TOÁN CỦA NÓ CÓ THỂ GÂY RA KHỦNG
HOẢNG TÀI CHÍNH
Hàng ngày ngành tài chính thế giới đang cần sự tham gia của công nghệ AI vào các quy trình giao dịch và tài chính. Các thuật toán này sau đó thực hiện hàng nghìn giao dịch với tốc độ chóng mặt với mục tiêu bán sau vài giây để kiếm lợi nhuận nhỏ. Việc bán tháo hàng nghìn giao dịch có thể khiến các nhà đầu tư sợ hãi làm điều tương tự, dẫn đến sự cố đột ngột và thị trường biến động cực độ. Các trường hợp như Flash Crash năm 2010 và Flash Crash của Knight Capital (có ghi chú ở dưới) nhắc nhở về những gì có thể xảy ra khi các thuật toán thỏa mãn giao dịch trở nên điên cuồng, bất kể giao dịch nhanh và lớn có chủ đích hay không.
===================================
chú thích
Flash Crash: Tai nạn tài chính chớp nhoáng ngày 6 tháng 5 năm 2010, còn được gọi là sự cố 2:45 hoặc đơn giản là Flash Crash, là một sự cố chớp nhoáng nhưng mất tới trị giá hàng nghìn tỷ đô la Mỹ(một loại chứng khoán sụp đổ thị trường) bắt đầu lúc 2:32 chiều. EDT và kéo dài khoảng 36 phút.
Flash Crash of Knight Captial : Knight Captital là công ty có mặt trong sàn chứng khoán với
hơn 17% thị phần trên sàn giao dịch New York là một thành phần ủng hộ Thuật Toán trong giao dịch chứng khoán. Vào tháng 8 năm 2012 cũng bị xảy ra một biến cố tài chính, công ty đã mất ngay 440 triệu USD chỉ trong 45 phút khi Thuật Toán mới của họ vừa đi vào hoạt động. Lỗi thuật toán đã gây ra sự sụp đổ tồi tệ trong giao dịch chứng khoán
===================================
...
Điều này không có nghĩa là AI không có gì để cung cấp
cho thế giới tài chính. Trên thực tế, các thuật toán
AI có thể giúp các nhà đầu tư đưa ra quyết định thông minh hơn và sáng suốt hơn
trên thị trường tài chính. Nhưng các tổ chức tài
chính cần chắc chắn rằng họ hiểu các thuật toán AI của mình và cách các thuật
toán đó đưa ra quyết định. Các công ty nên cân nhắc
liệu AI làm tăng hay giảm niềm tin của họ trước khi giới thiệu công nghệ này để
tránh gây ra nỗi hoảng loạn cho các nhà đầu tư và tạo ra sự hỗn loạn tài chính.
11.
TRÍ THÔNG MINH NHÂN TẠO CÓ THỂ TRÁNH NÉ ẢNH HƯỞNG CỦA CON NGƯỜI
Việc phụ thuộc quá nhiều
vào công nghệ AI có thể dẫn đến việc mất đi ảnh hưởng của con người — và sự
thiếu vắng hoạt động của con người — ở một số bộ phận trong xã hội.
Chẳng hạn, sử dụng AI trong chăm sóc sức khỏe có thể làm giảm đồng cảm và lý luận
của chúng ta.
Việc áp dụng trí tuệ nhân tạo AI cho những nỗ lực sáng tạo lại tự nó
có thể làm giảm khả năng sáng tạo và biểu hiện cảm xúc của con người. Tương tác
với các hệ thống AI quá nhiều thậm chí có thể làm giảm mạnh năng khiếu giao thiệp
xã hội. Vì vậy, trong khi AI có thể rất hữu ích để tự động hóa các công việc
hàng ngày, chúng
ta có thể hỏi ra một số câu hỏi, liệu nó có thể kìm hãm
trí thông minh, khả năng và nhu cầu con người hay
không.
12.
TRÍ THÔNG MINH NHÂN TẠO TỰ NHẬN THỨC LẤY
VÀ CHẲNG AI KIỂM SOÁT NÓ CẢ'
Trong Lá Thư Cảnh Báo đồng ký tên đó có đoạn:
...Môt ngày nào đó chúng ta có thể mất kiểm soát các hê thống Thông Minh Nhân Tạo (AI) do sự gia tăng của Siêu Trí Tuệ nó sẽ bất tuân lệnh con người. Rồi các hệ thống như thế sẽ đe dọa loài người. Do sao mà tình huống này có thể phát sinh? Chúng ta đã có đầu tư hợp lý nào để nghiên cứu và hiểu rõ các tình trạng nguy hiểm đó sẽ xảy ra trong nay mai hay chưa? Chúng ta có dự phòng khả năng nào đó đối phó với một dạng siêu trí tuệ nguy hiểm hay ngay cả một sự xuất hiện của tình trạng "bùng nổ thông minh" hay không?
Hiện đang có nhiều lo ngại rằng AI sẽ
phát triển trí thông minh nhanh đến mức nó sẽ tự
nó trở nên có tri giác và hành động ngoài tầm kiểm soát của
con người - có thể theo cách ác
độc hơn.
Các báo cáo bị cáo buộc về tình cảm này đã xảy ra. Một cựu kỹ sư của Google,
người đã nói rằng AI- chatbot LaMDA có
tri giác và nói chuyện với anh ta giống như một người bình thường. Khi AI cuối cùng tạo
ra các hệ thống có trí thông minh nhân tạo nói chung và cuối cùng là siêu trí tuệ nhân tạo, những lời kêu
gọi ngăn chặn hoàn toàn những sự phát triển này vẫn tiếp tục gia tăng./.
ĐHL BIÊN SOẠN 7.8.2023
CÁC NGUỒN THAM KHẢO
RISKS OF ARTIFICIAL INTELLIGENCE
https://builtin.com/artificial-intelligence/risks-of-artificial-intelligence
AI 'GODFATHER' GEOFREY HINTON WARNS OF DANGERS AS HE QUITS GOOGLE
AI 'godfather' Geoffrey Hinton warns of dangers as he quits Google - BBC News
No comments:
Post a Comment