Trang chủ
Bài viết mới
Diễn đàn
Bài mới trên hồ sơ
Hoạt động mới nhất
VIDEO
Mùa Tết
Văn Học Trẻ
Văn Học News
Media
New media
New comments
Search media
Đại Học
Đại cương
Chuyên ngành
Triết học
Kinh tế
KHXH & NV
Công nghệ thông tin
Khoa học kĩ thuật
Luận văn, tiểu luận
Phổ Thông
Lớp 12
Ngữ văn 12
Lớp 11
Ngữ văn 11
Lớp 10
Ngữ văn 10
LỚP 9
Ngữ văn 9
Lớp 8
Ngữ văn 8
Lớp 7
Ngữ văn 7
Lớp 6
Ngữ văn 6
Tiểu học
Thành viên
Thành viên trực tuyến
Bài mới trên hồ sơ
Tìm trong hồ sơ cá nhân
Credits
Transactions
Xu: 0
Đăng nhập
Đăng ký
Có gì mới?
Tìm kiếm
Tìm kiếm
Chỉ tìm trong tiêu đề
Bởi:
Hoạt động mới nhất
Đăng ký
Menu
Đăng nhập
Đăng ký
Install the app
Cài đặt
Chào mừng Bạn tham gia Diễn Đàn VNKienThuc.com -
Định hướng Forum
Kiến Thức
- HÃY TẠO CHỦ ĐỀ KIẾN THỨC HỮU ÍCH VÀ CÙNG NHAU THẢO LUẬN Kết nối:
VNK X
-
VNK groups
| Nhà Tài Trợ:
BhnongFood X
-
Bhnong groups
-
Đặt mua Bánh Bhnong
KHOA HỌC XÃ HỘI
TRIẾT HỌC
Chuyên đề đạo đức học: Đạo đức của trí tuệ nhân tạo
JavaScript is disabled. For a better experience, please enable JavaScript in your browser before proceeding.
You are using an out of date browser. It may not display this or other websites correctly.
You should upgrade or use an
alternative browser
.
Trả lời chủ đề
Nội dung
<blockquote data-quote="uocmo_kchodoi" data-source="post: 178305" data-attributes="member: 165510"><p style="text-align: center"><strong><span style="color: #ff0000">ĐẠO ĐỨC CỦA TRÍ TUỆ NHÂN TẠO</span></strong></p><p></p><p style="text-align: right"><strong>Peter singer</strong></p><p></p><p><strong>Mới đây báo chí vừa đưa tin rầm rộ về việc một rô bốt <strong>đầu tiên tranh cử chức thị trưởng tại Nhật Bản và nhận được hơn 4000 phiếu bầu chỉ trong thời gian ngắn. </strong>Rồi vào năm 2016, AlphaGo, một chương trình máy tính được thiết kế đặc biệt để chơi cờ vây, đã gây chấn động trong giới hâm mộ khi nó đánh bại Lee Sidol, một trong những kỳ thủ chuyên nghiệp hàng đầu thế giới, thắng giải đấu gồm năm ván với tỷ số 4-1. Hay chiếc Deep Blue của IBM đã từng đánh bại nhà vô địch vờ vua thế giới Garry Kasparov từ hai mươi năm về trước.</strong></p><p></p><p style="text-align: center"><img src="https://triethoc.edu.vn/resources/uploaded/TrietHoc/Files/%C4%90%E1%BA%A1o%20%C4%91%E1%BB%A9c%20h%E1%BB%8Dc/alphago.jpg" alt="" class="fr-fic fr-dii fr-draggable " data-size="" style="" /></p><p></p><p>Ta có thể hỏi, như vậy thì sao? Tất cả chúng ta đều biết máy tính đã được cải thiện kể từ đó. Nhưng Deep Blue đã thắng thông qua khả năng tính toán tuyệt đối, sử dụng khả năng của nó để tính toán kết quả của nhiều nước đi tới mức độ sâu hơn khả năng của một nhà vô địch thế giới. Cờ vây được chơi trên chiếc bàn rộng hơn nhiều (19×19 ô, thay vì 8×8 như cờ vua) và có nhiều bước đi khả dĩ hơn số nguyên tử trong vũ trụ, do vậy sức mạnh tính toán đơn thuần ít có khả năng đánh bại được một con người có cảm giác trực quan mạnh mẽ về những nước đi tốt nhất.</p><p></p><p>Thay vào đó, AlphaGo được thiết kế để giành chiến thắng bằng cách chơi một số lượng lớn ván cờ với các chương trình khác và áp dụng những chiến lược đã được chứng minh là thành công. Có thể nói AlphaGo đã tiến hóa để trở thành kỳ thủ cờ vây tốt nhất thế giới, đạt được cái mà chọn lọc tự nhiên đã mất hàng triệu năm để hoàn thành chỉ trong hai năm.</p><p></p><p>Eric Schmidt, chủ tịch điều hành của công ty mẹ Google, chủ sở hữu của AlphaGo, rất hăng hái về ý nghĩa của trí tuệ nhân tạo (AI) đối với nhân loại. Phát biểu trước trận đấu giữa Lee và AlphaGo, ông nói rằng nhân loại sẽ là người chiến thắng, bất kể kết quả ra sao, do những tiến bộ trong AI sẽ làm cho mỗi con người thông minh hơn, có nhiều khả năng hơn, và “là con người tốt hơn.”</p><p></p><p>Có thật không? Cũng trong khoảng thời gian AlphaGo chiến thắng, “chatbot” của Microsoft – phần mềm có tên Taylor được thiết kế để đáp lại tin nhắn từ những người trong độ tuổi từ 18 đến 24 – đã có một trải nghiệm đáng tiếc. “Tay” như nó tự gọi mình, được kỳ vọng là sẽ có khả năng học hỏi từ những tin nhắn nó nhận được và dần nâng cao khả năng tạo ra những cuộc trò chuyện thú vị. Không may là chỉ trong 24 giờ, người ta đã dạy cho Tay những ý tưởng phân biệt chủng tộc và phân biệt giới tính. Khi nó bắt đầu nói những điều tích cực về Hitler, Microsoft đã tắt chương trình và xóa những tin nhắn phản cảm nhất của nó.</p><p></p><p>Tôi không biết những người biến Tay thành một kẻ phân biệt chủng tộc có phân biệt chủng tộc hay không, hay chỉ nghĩ phá hoại công cụ mới của Microsoft là điều vui vẻ. Dù sao đi nữa, chiến thắng của AlphaGo kề cận với thất bại của Taylor cũng là một lời cảnh báo. Giải phóng trí tuệ nhân tạo trong bối cảnh một trò chơi với những quy tắc cụ thể và một mục tiêu rõ ràng là một chuyện; nhưng giải phóng nó trong thế giới thực, nơi sự bất ổn của môi trường có thể bộc lộ một lỗi phần mềm gây ra những hệ quả tai hại, lại là chuyện khác.</p><p></p><p>Trong cuốn <em>Superintelligence</em> (Siêu trí tuệ), Nick Bostrom, giám đốc Viện Tương lai Nhân loại ở Đại học Oxford, cho rằng tắt một cỗ máy trí tuệ sẽ không dễ như tắt Tay. Ông định nghĩa “siêu trí tuệ” như một thứ trí tuệ “thông minh hơn bộ não con người trong gần như mọi lĩnh vực, bao gồm sáng tạo khoa học, tri thức phổ thông, và các kỹ năng xã hội.” Một hệ thống như vậy có thể có lợi thế hơn những nỗ lực tắt nó đi của chúng ta.</p><p></p><p>Một số người cho rằng sẽ không bao giờ đạt được siêu trí tuệ. Bostrom, cùng với Vincent Müller, đã đề nghị các chuyên gia trí tuệ nhân tạo tính toán thời gian khả năng máy móc đạt được mức trí tuệ tương đương con người là 50% và 90%. Ước tính trung bình cho 50% là trong khoảng năm 2040-50, và cho 90% là năm 2075. Phần lớn chuyên gia dự đoán trí tuệ nhân tạo sẽ đạt được siêu trí tuệ trong vòng 30 năm sau khi đạt được mức trí tuệ tương đương con người.</p><p></p><p>Chúng ta không nên quá chú trọng những ước tính này. Tổng tỷ lệ phản hồi chỉ là 31%, và các nhà nghiên cứu làm việc với trí tuệ nhân tạo có động cơ để tăng tầm quan trọng của lĩnh vực của họ bằng cách tung hô tiềm năng tạo ra những kết quả quan trọng của nó.</p><p></p><p>Triển vọng trí tuệ nhân tạo đạt được siêu trí tuệ có thể có vẻ là quá xa vời để lo lắng, đặc biệt là với những vấn đề cấp bách hơn. Nhưng có lý do để bắt đầu nghĩ về cách chúng ta thiết kế trí tuệ nhân tạo để tính đến những lợi ích của con người, và của mọi sinh vật có ý thức (bao gồm cả máy móc, nếu chúng cũng là những sinh vật có ý thức với những lợi ích của riêng mình).</p><p></p><p>Với những chiếc xe không người lái trên những con đường của California, vẫn còn quá sớm cho câu hỏi liệu chúng ta có thể lập trình một cái máy để nó hành động một cách có đạo đức hay không. Khi cải thiện, những chiếc xe như vậy sẽ cứu mạng sống của con người, do chúng sẽ mắc ít sai lầm hơn các tài xế thực sự. Tuy nhiên, đôi khi chúng sẽ phải đối mặt với sự lựa chọn <em>giữa</em> các mạng sống. Chúng có nên được lập trình để tránh đâm phải một đứa trẻ đang chạy qua đường, ngay cả khi điều đó gây nguy hiểm cho hành khách của chúng hay không? Tránh một con chó thì thế nào? Nếu rủi ro chỉ là thiệt hại cho chiếc xe, mà không phải cho hành khách thì sao?</p><p></p><p>Có lẽ sẽ có những bài học để học khi những thảo luận như vậy về xe không người lái bắt đầu. Nhưng xe không người lái không phải là sinh vật siêu trí tuệ. Dạy đạo đức cho một chiếc máy thông minh hơn chúng ta, trong một loạt lĩnh vực, là nhiệm vụ khó khăn hơn nhiều.</p><p></p><p>Bostrom bắt đầu cuốn <em>Superintelligence</em> bằng ngụ ngôn về những con chim sẻ nghĩ việc đào tạo một con cú để giúp chúng xây tổ và chăm sóc chim non sẽ thật tuyệt vời. Vậy nên chúng bắt đầu tìm một quả trứng cú. Một con chim sẻ phản đối, cho rằng đầu tiên chúng nên nghĩ cách chế ngự bọn cú; nhưng những con khác thì không đợi được dự án thú vị mới được tiến hành. Chúng sẽ gánh vác thách thức của việc đào tạo con cú (ví dụ, không được ăn chim sẻ) khi chúng nuôi thành công một con.</p><p></p><p>Nếu chúng ta muốn tạo ra một con cú ngôn khoan, chứ không chỉ thông minh, đừng như những con chim sẻ thiếu kiên nhẫn kia. </p><p></p><p style="text-align: right">NGUYỄN HUY HOÀNG (triethoc.edu) dịch</p><p></p><p>Nguồn: <a href="https://hoanghannom.com/" target="_blank">https://hoanghannom.com. </a>Bản gốc tiếng Anh: Peter Singer, “<a href="https://www.project-syndicate.org/commentary/can-artificial-intelligence-be-ethical-by-peter-singer-2016-04#comments" target="_blank">Can Artificial Intelligence Be Ethical?</a>”<em>Project Syndicate</em>, 12/04/2016.</p></blockquote><p></p>
[QUOTE="uocmo_kchodoi, post: 178305, member: 165510"] [CENTER][B][COLOR=#ff0000]ĐẠO ĐỨC CỦA TRÍ TUỆ NHÂN TẠO[/COLOR][/B][/CENTER] [RIGHT][B]Peter singer[/B][/RIGHT] [B]Mới đây báo chí vừa đưa tin rầm rộ về việc một rô bốt [B]đầu tiên tranh cử chức thị trưởng tại Nhật Bản và nhận được hơn 4000 phiếu bầu chỉ trong thời gian ngắn. [/B]Rồi vào năm 2016, AlphaGo, một chương trình máy tính được thiết kế đặc biệt để chơi cờ vây, đã gây chấn động trong giới hâm mộ khi nó đánh bại Lee Sidol, một trong những kỳ thủ chuyên nghiệp hàng đầu thế giới, thắng giải đấu gồm năm ván với tỷ số 4-1. Hay chiếc Deep Blue của IBM đã từng đánh bại nhà vô địch vờ vua thế giới Garry Kasparov từ hai mươi năm về trước.[/B] [CENTER][IMG]https://triethoc.edu.vn/resources/uploaded/TrietHoc/Files/%C4%90%E1%BA%A1o%20%C4%91%E1%BB%A9c%20h%E1%BB%8Dc/alphago.jpg[/IMG][/CENTER] Ta có thể hỏi, như vậy thì sao? Tất cả chúng ta đều biết máy tính đã được cải thiện kể từ đó. Nhưng Deep Blue đã thắng thông qua khả năng tính toán tuyệt đối, sử dụng khả năng của nó để tính toán kết quả của nhiều nước đi tới mức độ sâu hơn khả năng của một nhà vô địch thế giới. Cờ vây được chơi trên chiếc bàn rộng hơn nhiều (19×19 ô, thay vì 8×8 như cờ vua) và có nhiều bước đi khả dĩ hơn số nguyên tử trong vũ trụ, do vậy sức mạnh tính toán đơn thuần ít có khả năng đánh bại được một con người có cảm giác trực quan mạnh mẽ về những nước đi tốt nhất. Thay vào đó, AlphaGo được thiết kế để giành chiến thắng bằng cách chơi một số lượng lớn ván cờ với các chương trình khác và áp dụng những chiến lược đã được chứng minh là thành công. Có thể nói AlphaGo đã tiến hóa để trở thành kỳ thủ cờ vây tốt nhất thế giới, đạt được cái mà chọn lọc tự nhiên đã mất hàng triệu năm để hoàn thành chỉ trong hai năm. Eric Schmidt, chủ tịch điều hành của công ty mẹ Google, chủ sở hữu của AlphaGo, rất hăng hái về ý nghĩa của trí tuệ nhân tạo (AI) đối với nhân loại. Phát biểu trước trận đấu giữa Lee và AlphaGo, ông nói rằng nhân loại sẽ là người chiến thắng, bất kể kết quả ra sao, do những tiến bộ trong AI sẽ làm cho mỗi con người thông minh hơn, có nhiều khả năng hơn, và “là con người tốt hơn.” Có thật không? Cũng trong khoảng thời gian AlphaGo chiến thắng, “chatbot” của Microsoft – phần mềm có tên Taylor được thiết kế để đáp lại tin nhắn từ những người trong độ tuổi từ 18 đến 24 – đã có một trải nghiệm đáng tiếc. “Tay” như nó tự gọi mình, được kỳ vọng là sẽ có khả năng học hỏi từ những tin nhắn nó nhận được và dần nâng cao khả năng tạo ra những cuộc trò chuyện thú vị. Không may là chỉ trong 24 giờ, người ta đã dạy cho Tay những ý tưởng phân biệt chủng tộc và phân biệt giới tính. Khi nó bắt đầu nói những điều tích cực về Hitler, Microsoft đã tắt chương trình và xóa những tin nhắn phản cảm nhất của nó. Tôi không biết những người biến Tay thành một kẻ phân biệt chủng tộc có phân biệt chủng tộc hay không, hay chỉ nghĩ phá hoại công cụ mới của Microsoft là điều vui vẻ. Dù sao đi nữa, chiến thắng của AlphaGo kề cận với thất bại của Taylor cũng là một lời cảnh báo. Giải phóng trí tuệ nhân tạo trong bối cảnh một trò chơi với những quy tắc cụ thể và một mục tiêu rõ ràng là một chuyện; nhưng giải phóng nó trong thế giới thực, nơi sự bất ổn của môi trường có thể bộc lộ một lỗi phần mềm gây ra những hệ quả tai hại, lại là chuyện khác. Trong cuốn [I]Superintelligence[/I] (Siêu trí tuệ), Nick Bostrom, giám đốc Viện Tương lai Nhân loại ở Đại học Oxford, cho rằng tắt một cỗ máy trí tuệ sẽ không dễ như tắt Tay. Ông định nghĩa “siêu trí tuệ” như một thứ trí tuệ “thông minh hơn bộ não con người trong gần như mọi lĩnh vực, bao gồm sáng tạo khoa học, tri thức phổ thông, và các kỹ năng xã hội.” Một hệ thống như vậy có thể có lợi thế hơn những nỗ lực tắt nó đi của chúng ta. Một số người cho rằng sẽ không bao giờ đạt được siêu trí tuệ. Bostrom, cùng với Vincent Müller, đã đề nghị các chuyên gia trí tuệ nhân tạo tính toán thời gian khả năng máy móc đạt được mức trí tuệ tương đương con người là 50% và 90%. Ước tính trung bình cho 50% là trong khoảng năm 2040-50, và cho 90% là năm 2075. Phần lớn chuyên gia dự đoán trí tuệ nhân tạo sẽ đạt được siêu trí tuệ trong vòng 30 năm sau khi đạt được mức trí tuệ tương đương con người. Chúng ta không nên quá chú trọng những ước tính này. Tổng tỷ lệ phản hồi chỉ là 31%, và các nhà nghiên cứu làm việc với trí tuệ nhân tạo có động cơ để tăng tầm quan trọng của lĩnh vực của họ bằng cách tung hô tiềm năng tạo ra những kết quả quan trọng của nó. Triển vọng trí tuệ nhân tạo đạt được siêu trí tuệ có thể có vẻ là quá xa vời để lo lắng, đặc biệt là với những vấn đề cấp bách hơn. Nhưng có lý do để bắt đầu nghĩ về cách chúng ta thiết kế trí tuệ nhân tạo để tính đến những lợi ích của con người, và của mọi sinh vật có ý thức (bao gồm cả máy móc, nếu chúng cũng là những sinh vật có ý thức với những lợi ích của riêng mình). Với những chiếc xe không người lái trên những con đường của California, vẫn còn quá sớm cho câu hỏi liệu chúng ta có thể lập trình một cái máy để nó hành động một cách có đạo đức hay không. Khi cải thiện, những chiếc xe như vậy sẽ cứu mạng sống của con người, do chúng sẽ mắc ít sai lầm hơn các tài xế thực sự. Tuy nhiên, đôi khi chúng sẽ phải đối mặt với sự lựa chọn [I]giữa[/I] các mạng sống. Chúng có nên được lập trình để tránh đâm phải một đứa trẻ đang chạy qua đường, ngay cả khi điều đó gây nguy hiểm cho hành khách của chúng hay không? Tránh một con chó thì thế nào? Nếu rủi ro chỉ là thiệt hại cho chiếc xe, mà không phải cho hành khách thì sao? Có lẽ sẽ có những bài học để học khi những thảo luận như vậy về xe không người lái bắt đầu. Nhưng xe không người lái không phải là sinh vật siêu trí tuệ. Dạy đạo đức cho một chiếc máy thông minh hơn chúng ta, trong một loạt lĩnh vực, là nhiệm vụ khó khăn hơn nhiều. Bostrom bắt đầu cuốn [I]Superintelligence[/I] bằng ngụ ngôn về những con chim sẻ nghĩ việc đào tạo một con cú để giúp chúng xây tổ và chăm sóc chim non sẽ thật tuyệt vời. Vậy nên chúng bắt đầu tìm một quả trứng cú. Một con chim sẻ phản đối, cho rằng đầu tiên chúng nên nghĩ cách chế ngự bọn cú; nhưng những con khác thì không đợi được dự án thú vị mới được tiến hành. Chúng sẽ gánh vác thách thức của việc đào tạo con cú (ví dụ, không được ăn chim sẻ) khi chúng nuôi thành công một con. Nếu chúng ta muốn tạo ra một con cú ngôn khoan, chứ không chỉ thông minh, đừng như những con chim sẻ thiếu kiên nhẫn kia. [RIGHT]NGUYỄN HUY HOÀNG (triethoc.edu) dịch[/RIGHT] Nguồn: [URL='https://hoanghannom.com/']https://hoanghannom.com. [/URL]Bản gốc tiếng Anh: Peter Singer, “[URL='https://www.project-syndicate.org/commentary/can-artificial-intelligence-be-ethical-by-peter-singer-2016-04#comments']Can Artificial Intelligence Be Ethical?[/URL]”[I]Project Syndicate[/I], 12/04/2016. [/QUOTE]
Tên
Mã xác nhận
Gửi trả lời
KHOA HỌC XÃ HỘI
TRIẾT HỌC
Chuyên đề đạo đức học: Đạo đức của trí tuệ nhân tạo
Top