• ,
    Лента новостей
    Опрос на портале
    Облако тегов
    crop circles (круги на полях) knz ufo ufo нло АЛЬТЕРНАТИВНАЯ ИСТОРИЯ Атомная энергия Борьба с ИГИЛ Вайманы Венесуэла Военная авиация Вооружение России ГМО Гравитационные волны Историческая миссия России История История возникновения Санкт-Петербурга История оружия Космология Крым Культура Культура. Археология. МН -17 Мировое правительство Наука Научная открытия Научные открытия Нибиру Новороссия Оппозиция Оружие России Песни нашего века Политология Птах Роль России в мире Романовы Российская экономика Россия Россия и Запад СССР США Синяя Луна Сирия Сирия. Курды. Старообрядчество Украина Украина - Россия Украина и ЕС Человек Юго-восток Украины артефакты Санкт-Петербурга босса-нова будущее джаз для души историософия история Санкт-Петербурга ковид лето музыка нло (ufo) оптимистическое саксофон сказки сказкиПтаха удача фальсификация истории философия черный рыцарь юмор
    Сейчас на сайте
    Шаблоны для DLEторрентом
    Всего на сайте: 30
    Пользователей: 2
    Гостей: 28
    RussellGep Igor-Zah
    Архив новостей
    «    Сентябрь 2024    »
    ПнВтСрЧтПтСбВс
     1
    2345678
    9101112131415
    16171819202122
    23242526272829
    30 
    Сентябрь 2024 (460)
    Август 2024 (960)
    Июль 2024 (888)
    Июнь 2024 (923)
    Май 2024 (941)
    Апрель 2024 (733)
    Искусственный Интеллект может скоро стать в миллион раз сильнее
    Время не ждёт
      •  Елена Ларина Владимир Овчинский

     

    В ходе послания Федеральному собранию Президент России Владимир Путин заявил о необходимости достижения самодостаточности и конкурентоспособности в области искусственного интеллекта (ИИ).

    Руководитель страны заявил, что России необходимо наращивать вычислительные ресурсы. Путин подчеркнул, что к 2030 году совокупная мощность отечественных суперкомпьютеров должна быть увеличена минимум в десять раз.

    Поставленная Президентом России задача непосредственным образом связана с национальной безопасностью страны.

    Наш основной геополитический конкурент – США ставят развитие ИИ во главу угла всей политики.

    Об этом особенно отчетливо заявлено в докладе исполнительного вице-президента и директора по исследованиям Центра новой американской безопасности (CNAS) Пола Шарра «Перспективное регулирование искусственного интеллекта на будущее. Проектирование будущих вычислений для передовых моделей искусственного интеллекта», опубликованном 13 марта.

    В докладе делаются следующие выводы:

    «Политики должны подготовиться к появлению в мире значительно более мощных систем искусственного интеллекта в течение следующих 10–15 лет. Эти разработки могут произойти без фундаментальных прорывов в науке об искусственном интеллекте, а просто за счет расширения современных методов обучения более крупных моделей на большем количестве данных и вычислений.

    Несмотря на ограничения по расходам и производительности оборудования, объем вычислений, используемых для обучения передовых моделей ИИ, может значительно увеличиться в следующем десятилетии.

    К концу 2020-х или началу 2030-х годов объем обучающих вычислений может быть примерно в 1000 раз больше, чем для генеративной модели ИИ - GPT-4, а эффективные вычисления могут примерно в 1 миллион раз превышать GPT-4.

    Существует некоторая неопределенность относительно того, когда эти пороговые значения могут быть достигнуты, но такой уровень роста представляется возможным в рамках ограничений по стоимости и оборудованию.

    Улучшения такого масштаба возможны без вмешательства государства, которое полностью финансируется частными корпорациями в масштабах сегодняшних крупных технологических компаний.

    Они также не требуют фундаментальных прорывов в производстве или проектировании чипов.

    Ещё больший выигрыш может быть возможен, если окажется верным хотя бы одно из следующих утверждений:

    Компании могут тратить большие суммы денег благодаря увеличению доходов от ИИ;

    Правительства финансируют еще более масштабные и дорогостоящие тренинги;

    Производительность оборудования продолжит улучшаться вплоть до 2030-х годов;

    Эффективность алгоритмов продолжит улучшаться и в 2030-е годы.

    В докладе не делается никаких прогнозов относительно конкретных возможностей системы, производительность которой в миллион раз превышает производительность GPT-4. Однако исторический опыт масштабирования показывает, что в результате появляются не только более производительные модели, но и открываются совершенно новые возможности.

    Базовая траектория передовых систем искусственного интеллекта в ближайшем будущем — это не системы, немного более мощные, чем нынешний уровень техники. Это системы, значительно более мощные, чем сегодня.

    Проблема, с которой сталкиваются политики, заключается не в регулировании систем уровня GPT-4. Придётся регулировать гораздо более мощные системы, которые могут быть построены в ближайшие 10–15 лет.

    Политики должны уже сегодня начать создавать нормативную базу для подготовки к таким системам.

    Точно так же, как некоторые лаборатории искусственного интеллекта разрабатывают «политику ответственного масштабирования», правительства должны подготовить свои правила к будущему, чтобы быть готовыми к будущим моделям, которые будут значительно более ресурсоемкими и производительными, чем сегодня.

    Создание нормативно-правовой базы в ожидании более мощных систем ИИ имеет важное значение из-за несоответствия в скорости прогресса ИИ и процесса разработки политики, сложности прогнозирования возможностей новых систем ИИ для решения конкретных задач и скорости, с которой модели ИИ распространяются сегодня, в отсутствии регулирования.

    Ожидание регулирования будущих, более мощных систем искусственного интеллекта до тех пор, пока не материализуется конкретный вред, почти наверняка приведет к тому, что регулирование будет слишком запоздалым.

    В худшем случае опасные модели уже могли быть опубликованы с открытым исходным кодом, что делало бы практически невозможными попытки ограничить их распространение.

    Компьютерное оборудование, вероятно, станет плодотворным инструментом регулирования, если нынешние тенденции сохранятся.

    Огромные объёмы вычислений — это цена входа в обучение передовых моделей ИИ. Если текущие тенденции сохранятся, значение вычислений, вероятно, возрастет в ближайшие 10–15 лет, как важнейший вклад в обучение наиболее эффективных систем искусственного интеллекта.

    Правила доступа к вычислениям (например, контроль над экспортом чипов, требования к облачным вычислениям «знай своего клиента»), если они будут эффективными, могут ограничить возможности геополитических конкурентов (Китая и России) идти в ногу с передовым развитием искусственного интеллекта в США.

    Однако ограничения на доступ к вычислениям, скорее всего, замедлят, но не остановят распространение, учитывая способность алгоритмических достижений со временем позволить обучать эквивалентные системы с меньшими вычислительными затратами.

    Правила в отношении вычислений будут более эффективными, если они будут сочетаться с правилами, касающимися самих моделей.

    Алгоритмический прогресс оказывает существенное влияние на скорость распространения пограничных моделей. Изменения в поведении отрасли или правительственном регулировании в отношении обученных моделей, возможно, могут замедлить темпы их распространения.

    Широко доступные усовершенствования алгоритмов могут замедлиться, например, если ведущие лаборатории искусственного интеллекта скроют дальнейшую информацию о своих передовых моделях или если правительство США применит экспортный контроль к обученным моделям, превышающим определенный порог вычислений, как оно уже это сделало с чипами.

    Политики сталкиваются с трудным выбором в отношении регулирования ИИ в условиях значительной неопределенности.

    Понимание исторических тенденций в затратах, вычислениях и эффективности алгоритмов может помочь политикам сделать разумные прогнозы о том, какое будущее возможно в течение следующего десятилетия с лишним, учитывая потенциальные ограничения дальнейшего роста».

    Источник - Завтра .

    Комментарии:
    Информация!
    Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.
    Наверх Вниз