I will be back или проблема технологической сингулярности
Всем интересно смотреть фильмы вроде Матрицы или Терминатора, где машины захватывают мир и ставят существование человечества (или, по крайней мере, привычный способ жизни) под угрозу. Но может ли такая проблема выйти со страниц сценариев, как это сделали роботы и мобильники, и стать вполне реальной угрозой?
Всё началось с небольшой публикации Тори о новых «умных» технологиях в телефонах, которые следят за глазами пользователя и пролистывают страницы когда тот дойдёт до конца текста. Я тогда сделал шуточный комментарий про Терминатора, но, после этого вспомнил фразу «В каждой шутке есть доля шутки» и решил немножко изучить вопрос.
Технологи́ческая сингуля́рность — гипотетический момент, по прошествии которого, по мнению сторонников данной концепции, технический прогресс станет настолько быстрым и сложным, что окажется недоступным пониманию.
Проблему выдвинул Алан Тьюринг (в 1951 году), предположив, что как только машины научатся самообучению и мыслительным процессам их уже будет невозможно остановить несовершенным человеческим мышлением. И «умные» машины не обязательно будут добрыми и ласковыми к своим создателям.
В чём проблема?
Почему машины, которые станут гораздо умнее людей обязательно злые? Потому что понятие «дружественность» это финансово невыгодная штука. Это будет или лишний код или дополнительный «модуль» I. J. Good (который и придумал термин «технологическая сингулярность») в одном из трудов написал:
Let an ultraintelligent machine be defined as a machine that can far surpass all the intellectual activities of any man however clever. Since the design of machines is one of these intellectual activities, an ultraintelligent machine could design even better machines; there would then unquestionably be an 'intelligence explosion,' and the intelligence of man would be left far behind. Thus the first ultraintelligent machine is the last invention that man need ever make.
«Давайте определим термин «умная машина», как машина, интеллект и мыслительные процессы которой, превосходят любого человека, вне зависимости от того насколько он умный. Поскольку проектировка и конструкция машин мыслительный процесс, умная машина может спроектировать машины даже лучше. Несомненно произойдёт «Интеллектуальный взрыв» и интеллект человека останется далеко позади. Так, первая умная машина будет последним изобретением, которое нужно придумать человеку»
Берглас заметил, что у машин нет никакой эволюционной мотивации быть дружелюбными к людям. Эволюция машин не обязательно пойдёт в желаемом направлении и, вполне возможно, что машины начнут действовать не так как было задумано их создателями. А математик Вернон Виндж говорит о четырёх возможных сценариях прихода технологической сингулярности:
- Разработка сверхинтеллектуального компьютера сразу с мыслительными процессами и возможностью анализировать информацию.
- Превращение огромной сети компьютеров и связанных с ними пользователей в одно сверхинтеллектуальное существо (привет, интернет!)
- Человек и компьютер настолько сблизятся и внедрятся друг в друга, что каждого такого человека можно будет назвать сверхинтеллектуальным существом.
- Человечество найдёт способ улучшить человеческий интеллект с помощью имплантации машин.
Так когда же?
Скоро. Рэймонд Курцвейл говорит, что это произойдёт в уже недалёком 2040 году. Запасаемся попкорном и ждём ещё одного конца света.