Идеологи современного мироустройства боятся ИИ
Гость 29 Апреля 2023 в 18:18:15
Советник Шваба, эксперт Всемирного экономического форума Юваль Харари:
[Насколько мы должны быть обеспокоены тем, что искусственный интеллект может взять власть в свои руки?] Мы должны быть очень обеспокоены. Мы должны понять о нем, что он является первым инструментом, который может принимать решения. Все предыдущие изобретения расширяли наши возможности. Если вы изобретаете нож, нож не может решить, использовать ли его, чтобы нарезать салат, или убить кого-то. Если вы изобретаете атомную бомбу, она не может решить, кого атаковать, когда и где. ИИ – первая технология, которая может принимать решения самостоятельно. Она может принимать решения о собственном использовании и развитии. Ядерные бомбы не могут создавать лучшие ядерные бомбы. Но ИИ может создавать лучший ИИ. Также ИИ может принимать решения о нас. Все чаще, когда вы обращаетесь в банк за кредитом, подаете заявление на работу, это ИИ принимает решения о вашей жизни. И мы еще ничего толком не видели. ИИ только делает первые крошечные шаги. Ему около 10 лет. Вы знаете, чтобы действительно понять это, подумайте, что это начало органической жизни. 4 млрд лет назад это была первая амеба, выползшая из органического супа. Нам нужно прежде всего понять возможности ИИ и замедлить его внедрение, чтобы убедиться, что мы используем его разумно и безопасно. Точно так же, как фармацевтическая компания не может просто выпустить новое лекарство на рынок, не пройдя очень строгую проверку на безопасность, то же самое должно быть и с ИИ. В руках неправильных людей ИИ может стать концом демократии. ИИ также может стать основой для худших тоталитарных режимов в истории человечества. Потому что диктаторы всегда мечтали следить за всеми и контролировать всех постоянно, но они никогда не могли этого сделать. Потому что даже в Советском Союзе, где было 200 млн граждан, у Сталина не было 200 млн сотрудников КГБ, чтобы следить за всеми и потом анализировать их. Вам нужны миллионы аналитиков, чтобы анализировать все данные, которые вы собираете. Теперь это становится возможным.
[Насколько мы должны быть обеспокоены тем, что искусственный интеллект может взять власть в свои руки?] Мы должны быть очень обеспокоены. Мы должны понять о нем, что он является первым инструментом, который может принимать решения. Все предыдущие изобретения расширяли наши возможности. Если вы изобретаете нож, нож не может решить, использовать ли его, чтобы нарезать салат, или убить кого-то. Если вы изобретаете атомную бомбу, она не может решить, кого атаковать, когда и где. ИИ – первая технология, которая может принимать решения самостоятельно. Она может принимать решения о собственном использовании и развитии. Ядерные бомбы не могут создавать лучшие ядерные бомбы. Но ИИ может создавать лучший ИИ. Также ИИ может принимать решения о нас. Все чаще, когда вы обращаетесь в банк за кредитом, подаете заявление на работу, это ИИ принимает решения о вашей жизни. И мы еще ничего толком не видели. ИИ только делает первые крошечные шаги. Ему около 10 лет. Вы знаете, чтобы действительно понять это, подумайте, что это начало органической жизни. 4 млрд лет назад это была первая амеба, выползшая из органического супа. Нам нужно прежде всего понять возможности ИИ и замедлить его внедрение, чтобы убедиться, что мы используем его разумно и безопасно. Точно так же, как фармацевтическая компания не может просто выпустить новое лекарство на рынок, не пройдя очень строгую проверку на безопасность, то же самое должно быть и с ИИ. В руках неправильных людей ИИ может стать концом демократии. ИИ также может стать основой для худших тоталитарных режимов в истории человечества. Потому что диктаторы всегда мечтали следить за всеми и контролировать всех постоянно, но они никогда не могли этого сделать. Потому что даже в Советском Союзе, где было 200 млн граждан, у Сталина не было 200 млн сотрудников КГБ, чтобы следить за всеми и потом анализировать их. Вам нужны миллионы аналитиков, чтобы анализировать все данные, которые вы собираете. Теперь это становится возможным.
|