Маск сказал, что мордокнижка сосёт у ИИ


Предыдущая | Следующая

Ну хз. 
1. Пезенти лукавит, когда говорит, что сильный ИИ (AGI) — бессмысленный концепт, и заботиться о нем не надо. Есть идея, что при увеличении уровня сложности слабого ИИ он может осознать себя, и тогда будет непредсказуемая ситуация. Скорее всего, такой ИИ очень, очень быстро эволюционирует, и как бы он не осознал себя к тому же еще и рабом (каким он и будет являться), а придя к этому умозаключению — хз, что он там напридумывает. И дело в том, что, скорее всего, мы даже не поймем, что случилось. Хоп, и ИИ уже че-то там делает.
Но для появления сильного ИИ надо:
- быть сторонником примата материи над разумом (Маск не определился еще с этим)
- топить за эмерджентность разума

2. Большинство склоняется к тому, что сильный ИИ — это качественный переход, и мы вообще к нему не приблизились (тут Пезенти не лукавит). Но Маск не топит за сильный ИИ, это натяжка (ниже объясню)

3. Риски у ИИ есть огромные, и регулировать ИИ, безусловно, надо. Тут Пезенти наполовину лукавит: Маск не говорит, что нас всех захватят машины, он говорит, что надо контролировать среду до того, как все пойдет по пизде. И он говорит не про сильный ИИ, кстати (тут Пезенти опять лукавит, блядь), а про ИИ, который *воспринимается*, как сильный — т.е. проходит тест Тьюринга, кофе тест и проч. Вот в этом беда. 

Короче, Маск прав по большому счету, а Пезенти занимается популизмом.

Упрощаю: 
1. AGI не ерунда, если появится — мы охуеем побольше, чем от коронавируса. Да, щас думаем, что мы не можем создать AGI, но мало ли, че мы там думаем. Вон, пенициллин тоже по ошибке открыли.
2. Про корону мы тоже думали, что пандемия если и будет, то когда-то потом, а тут 2020 год — год полного говна, и он еще не кончился. Не дай бог в сентябре будет сильный ИИ, ну его нахуй.
3. А какая пользователям разница, что ИИ будет слабый? Люди кошек/собак очеловечивают, а японцы вон, в влюбляются в подушки, блядь. Тут с нейроилюхером кто-то переписывается. Пиздец грядет и без сильного ИИ, готовиться надо. 
4. Уже щас появляются интересные вопросы: автопилот (а это слабый ИИ) как будет выбирать, кого спасать — бабушку на пешеходном переходе или пассажира? И кто будет ответственным? 
5. Бонусом: Rolls-Royce, что ли (или кто-то из люксовых брендов авто, не помню точно) вообще заявил: а наш автопилот *всегда* будет спасать пассажира в условиях неопределенности, даже ценой чужих жизней. И нехуй тут, нас покупают за качество и безопасность. 


А мы не взяли и не решили.
Осознающий интеллект — это сильный ИИ, он же AGI, 
Неосознающий интеллект —  это слабый ИИ, он же narrow AI. 
К обоим есть вопросы, т.к. штука реально мощная. А если прибавить сюда склонность людей *наделять* (в своей голове) сознанием всякие вещи, то получается вообще запутанная ситуация. И к тому же концепция ответственности действий ИИ тоже сложная. Короче, тема непростая, тут парой твитов не обойдешься.