Thứ Ba, 18 tháng 12, 2018

Published 10:13:00 by

DTS-Lo ngại phát triển trí tuệ nhân tạo làm vũ khí, xâm phạm quyền con người

Chuyên mục tin mới Điện tử và sống số Lo ngại phát triển trí tuệ nhân tạo làm vũ khí, xâm phạm quyền con người trong tương lai không xa và Trí thông minh nhân tạo AI
Chú thích ảnh
Giám đốc điều hành (CEO) Google Sundar Pichai . Ảnh: AFP/TTXVN

Trả lời phỏng vấn báo Washington Post của Mỹ ngày 12/12, ông Pichai nhấn mạnh các công ty công nghệ xây dựng AI nên tính tới khía cạnh đạo đức ngay từ ban đầu khi bắt tay vào tiến trình này để chắc chắn rằng AI với "công dụng của riêng mình" không làm tổn hại tới con người.

Hồi tháng 6 năm nay, Google đã công bố một bộ quy tắc AI nội bộ, trong đó đầu tiên là AI cần có ích cho xã hội. Google cam kết không thiết kế hoặc phát triển AI sử dụng làm vũ khí, giám sát vượt ngoài các quy tắc quốc tế, hoặc liên quan tới công nghệ nhằm xâm phạm quyền con người.

Trong nỗ lực phát triển công nghệ này, Google cũng lên kế hoạch tiếp tục phối hợp với quân đội và các chính phủ trong các lĩnh vực an ninh mạng, đào tạo, tuyển dụng nhân sự, chăm sóc sức khỏe, cũng như tìm kiếm, cứu nạn.

Google, đặt trụ sở tại California, hiện đi đầu thế giới về phát triển AI và đang cạnh tranh trong lĩnh vực phần mềm thông minh với các "ông lớn công nghệ" khác như Amazon, Apple, Microsoft, IBM và Facebook.

AI hiện được sử dụng để nhận diện người trong các bức ảnh, lọc những nội dung không phù hợp khỏi các nền tảng mạng trực tuyến và kích hoạt các phương tiện ô tô tự lái. Tuy nhiên, những năng lực ngày càng gia tăng của AI đang gây nhiều tranh cãi về những tác động đến xã hội và đạo đức…

Trước đó, nhà khoa học nổi tiếng Stephen Hawking cũng từng nhận định việc tạo ra AI thành công có thể là sự kiện tuyệt vời nhất trong lịch sử nền văn minh, nhưng cũng có thể là "sự kiện tồi tệ nhất", nếu xã hội không tìm cách kiểm soát sự phát triển của nó. Ông cảnh báo khi vượt ngoài tầm kiểm soát, AI có thể thành một loại vũ khí tự trị mạnh mẽ hoặc biến đổi thành công cụ mới để người áp bức người nhiều hơn, gây ra sự gián đoạn lớn đối với nền kinh tế.

Website phân phối Cân điện tử Ohaus Công Nghiệp : http://candientuohaus.com chuyên cung cấp cân bàn công nghiệp với nhiều mẫu mã đa dạng nhập từ Đài Loan -Trung Quốc – Hàn Quốc – nhật bản. Cân Ohaus tại Tp. Hồ Chí Minh cung cấp hàng hóa và vật tư cho các nhà máy xí nghiệp, tăng năng xuất lao động giảm nhân công và hiệu quả công việc tăng cao. Hàng chính hãng giá rẻ nhất thị trường tại Hồ Chí Minh, Cân điện tử Ohaus Chất lượng hàng đầu Việt Nam.

Lo ngại phát triển trí tuệ nhân tạo làm vũ khí, xâm phạm quyền con người

Thông tin khuơ học tiến đánh nghệ, tiến đánh nghệ am hiểu tin, internet, oto, vũ khí, vũ trụ. Cập nhật tin tức, video clip dày nhất dận thu hút đề pa khuơ học, tiến đánh nghệ, Tin tiến đánh nghệ, giới thiệu sản phẩm tiến đánh nghệ am hiểu tin mới ra mắt trên thị dài. Chia sẻ ghê nghiệm sử dụng danh thiếp sản phẩm tiến đánh nghệ mới. Hướng dẫn sử dụng smartphone, laptop cho người mới nép đầu, am hiểu tin khuyến mãi những sản phẩm tiến đánh nghệ xuể cập nhật mới và dày nhất trong suốt 24h…danh thiếp nghiên cứu, ứng dụng khuơ học mới nhất trên báo … Mục tin khuơ học mực tàu Đại Kỷ Nguyên rất đa trạng thái với danh thiếp tin tức khảo cổ chấn rượu cồn, tin khuơ học vũ trụ, khuơ học bí nấp… khươi dậy trí tưởng tượng mực tàu bạn.

Điện tử và cuộc sống công nghệ số ; tác phẩm Lo ngại phát triển trí tuệ nhân tạo làm vũ khí, xâm phạm quyền con người Bản quyền báo Tin tức điện tử – online nguyên văn.
– Chuyên trang tin mới Tin tứ phương phân phối tin nhanh điện tử tương lai cuộc sống số hóa và tự động hóa.
– Tác phẩm Lo ngại phát triển trí tuệ nhân tạo làm vũ khí, xâm phạm quyền con người và quyền tác giả GHI tại đầu hoặc/và cuối chân mỗi trang/bài viết. https://tintuphuong.com phi lợi nhuận và không chịu bất cứ trách nhiệm nào với nội dung đang phân phối – có ghi nguồn.

* Quảng cáo chất lượng cao !



Original source: DTS-Lo ngại phát triển trí tuệ nhân tạo làm vũ khí, xâm phạm quyền con người.
--Bạn đang xem tin hấp dẫn tại : https://tintuphuong.com
      edit