Сообщение #2399214 Просмотреть на стене →

Центр безпеки штучного інтелекту у США та інші групи експертів разом попередили, що розвиток технологій ШІ загрожує зникненням людства і що необхідно вжити заходів для запобігання такому сценарію розвитку подій.

«Зниження ризику вимирання, яке може статися через ШІ, має стати глобальним пріоритетом поряд з іншими загрозами, як-от пандемії та ядерна війна», - йдеться в заяві, опублікованій на сайті центру (Center for AI Safety).

Документ підписали експерти в галузі ШІ, а також фахівці у сфері інформаційних технологій, економіки, математики, філософії. Серед них - гендиректор компанії Open AI і програміст Сем Олтмен, один із розробників ШІ британський учений Джеффрі Гінтон.
Відповідально заявляю: ядерна бонба може знищити світ![пішов робити нові ядерні бонби]. Цікава логіка.
 
Последние новости
Опрос
Скільки триватиме війна?
Менше місяця
13%
13%
Менше трьох місяців
26%
26%
До півроку
23%
23%
До року
15%
15%
Більше року
23%
23%
Оценки
Оцените действия игроков Динамо в матче с Мариуполем
Бущан
5,0
50%
Кендзера
4,0
40%
Забарный
5,0
50%
Сирота
5,0
50%
Караваев
3,0
30%
Сидорчук
6,0
60%
Шапаренко
6,0
60%
Буяльский
4,0
40%
Де Пена
4,0
40%
Цыганков
3,0
30%
Вербич
3,0
30%
Гармаш
4,0
40%
Тымчик
4,0
40%
Витиньо
4,0
40%