Елена Ларина и Владимир Овчинский: Искусственный Интеллект может скоро стать в миллион раз сильнее |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2024-03-24 11:47 В ходе послания Федеральному собранию Президент России Владимир Путин заявил о необходимости достижения самодостаточности и конкурентоспособности в области искусственного интеллекта (ИИ). Руководитель страны заявил, что России необходимо наращивать вычислительные ресурсы. Путин подчеркнул, что к 2030 году совокупная мощность отечественных суперкомпьютеров должна быть увеличена минимум в десять раз. Поставленная Президентом России задача непосредственным образом связана с национальной безопасностью страны. Наш основной геополитический конкурент – США ставят развитие ИИ во главу угла всей политики. Об этом особенно отчетливо заявлено в докладе исполнительного вице-президента и директора по исследованиям Центра новой американской безопасности (CNAS) Пола Шарра «Перспективное регулирование искусственного интеллекта на будущее. Проектирование будущих вычислений для передовых моделей искусственного интеллекта», опубликованном 13 марта. В докладе делаются следующие выводы: «Политики должны подготовиться к появлению в мире значительно более мощных систем искусственного интеллекта в течение следующих 10–15 лет. Эти разработки могут произойти без фундаментальных прорывов в науке об искусственном интеллекте, а просто за счет расширения современных методов обучения более крупных моделей на большем количестве данных и вычислений. Несмотря на ограничения по расходам и производительности оборудования, объем вычислений, используемых для обучения передовых моделей ИИ, может значительно увеличиться в следующем десятилетии. К концу 2020-х или началу 2030-х годов объем обучающих вычислений может быть примерно в 1000 раз больше, чем для генеративной модели ИИ — GPT-4, а эффективные вычисления могут примерно в 1 миллион раз превышать GPT-4. Существует некоторая неопределенность относительно того, когда эти пороговые значения могут быть достигнуты, но такой уровень роста представляется возможным в рамках ограничений по стоимости и оборудованию. Улучшения такого масштаба возможны без вмешательства государства, которое полностью финансируется частными корпорациями в масштабах сегодняшних крупных технологических компаний. Они также не требуют фундаментальных прорывов в производстве или проектировании чипов. Ещё больший выигрыш может быть возможен, если окажется верным хотя бы одно из следующих утверждений: Компании могут тратить большие суммы денег благодаря увеличению доходов от ИИ; Правительства финансируют еще более масштабные и дорогостоящие тренинги; Производительность оборудования продолжит улучшаться вплоть до 2030-х годов; Эффективность алгоритмов продолжит улучшаться и в 2030-е годы. В докладе не делается никаких прогнозов относительно конкретных возможностей системы, производительность которой в миллион раз превышает производительность GPT-4. Однако исторический опыт масштабирования показывает, что в результате появляются не только более производительные модели, но и открываются совершенно новые возможности. Базовая траектория передовых систем искусственного интеллекта в ближайшем будущем — это не системы, немного более мощные, чем нынешний уровень техники. Это системы, значительно более мощные, чем сегодня. Проблема, с которой сталкиваются политики, заключается не в регулировании систем уровня GPT-4. Придётся регулировать гораздо более мощные системы, которые могут быть построены в ближайшие 10–15 лет. Политики должны уже сегодня начать создавать нормативную базу для подготовки к таким системам. Точно так же, как некоторые лаборатории искусственного интеллекта разрабатывают «политику ответственного масштабирования», правительства должны подготовить свои правила к будущему, чтобы быть готовыми к будущим моделям, которые будут значительно более ресурсоемкими и производительными, чем сегодня. Создание нормативно-правовой базы в ожидании более мощных систем ИИ имеет важное значение из-за несоответствия в скорости прогресса ИИ и процесса разработки политики, сложности прогнозирования возможностей новых систем ИИ для решения конкретных задач и скорости, с которой модели ИИ распространяются сегодня, в отсутствии регулирования. Ожидание регулирования будущих, более мощных систем искусственного интеллекта до тех пор, пока не материализуется конкретный вред, почти наверняка приведет к тому, что регулирование будет слишком запоздалым. В худшем случае опасные модели уже могли быть опубликованы с открытым исходным кодом, что делало бы практически невозможными попытки ограничить их распространение. Компьютерное оборудование, вероятно, станет плодотворным инструментом регулирования, если нынешние тенденции сохранятся. Огромные объёмы вычислений — это цена входа в обучение передовых моделей ИИ. Если текущие тенденции сохранятся, значение вычислений, вероятно, возрастет в ближайшие 10–15 лет, как важнейший вклад в обучение наиболее эффективных систем искусственного интеллекта. Правила доступа к вычислениям (например, контроль над экспортом чипов, требования к облачным вычислениям «знай своего клиента»), если они будут эффективными, могут ограничить возможности геополитических конкурентов (Китая и России) идти в ногу с передовым развитием искусственного интеллекта в США. Однако ограничения на доступ к вычислениям, скорее всего, замедлят, но не остановят распространение, учитывая способность алгоритмических достижений со временем позволить обучать эквивалентные системы с меньшими вычислительными затратами. Правила в отношении вычислений будут более эффективными, если они будут сочетаться с правилами, касающимися самих моделей. Алгоритмический прогресс оказывает существенное влияние на скорость распространения пограничных моделей. Изменения в поведении отрасли или правительственном регулировании в отношении обученных моделей, возможно, могут замедлить темпы их распространения. Широко доступные усовершенствования алгоритмов могут замедлиться, например, если ведущие лаборатории искусственного интеллекта скроют дальнейшую информацию о своих передовых моделях или если правительство США применит экспортный контроль к обученным моделям, превышающим определенный порог вычислений, как оно уже это сделало с чипами. Политики сталкиваются с трудным выбором в отношении регулирования ИИ в условиях значительной неопределенности. Понимание исторических тенденций в затратах, вычислениях и эффективности алгоритмов может помочь политикам сделать разумные прогнозы о том, какое будущее возможно в течение следующего десятилетия с лишним, учитывая потенциальные ограничения дальнейшего роста». Источник: dzen.ru Комментарии: |
|