• ,
    Лента новостей
    Опрос на портале
    Облако тегов
    crop circles (круги на полях) knz ufo ufo нло АЛЬТЕРНАТИВНАЯ ИСТОРИЯ Атомная энергия Борьба с ИГИЛ Вайманы Венесуэла Военная авиация Вооружение России ГМО Гравитационные волны Историческая миссия России История История возникновения Санкт-Петербурга История оружия Космология Крым Культура Культура. Археология. МН -17 Мировое правительство Наука Научная открытия Научные открытия Нибиру Новороссия Оппозиция Оружие России Песни нашего века Политология Птах Роль России в мире Романовы Российская экономика Россия Россия и Запад СССР США Синяя Луна Сирия Сирия. Курды. Старообрядчество Украина Украина - Россия Украина и ЕС Человек Юго-восток Украины артефакты Санкт-Петербурга босса-нова будущее джаз для души историософия история Санкт-Петербурга ковид лето музыка нло (ufo) оптимистическое саксофон сказки сказкиПтаха удача фальсификация истории философия черный рыцарь юмор
    Сейчас на сайте
    Шаблоны для DLEторрентом
    Всего на сайте: 7
    Пользователей: 0
    Гостей: 7
    Архив новостей
    «    Декабрь 2024    »
    ПнВтСрЧтПтСбВс
     1
    2345678
    9101112131415
    16171819202122
    23242526272829
    3031 
    Декабрь 2024 (157)
    Ноябрь 2024 (749)
    Октябрь 2024 (706)
    Сентябрь 2024 (857)
    Август 2024 (960)
    Июль 2024 (888)
    В США хотят создать «Манхэттенский проект» искусственного интеллекта

    Владимир ПРОХВАТИЛОВ

    Очередной прорыв или научное мошенничество на пути к самоуничтожению?

     Комиссия по обзору экономики и безопасности США и Китая (USCC ) Конгресса США опубликовала доклад, в котором рекомендовала американским законодателям создать и профинансировать программу по типу «Манхэттенского проекта», направленную на ускоренное развитие так называемого Искусственного общего интеллекта (Artificial General Intelligence – AGI).

    AGI – это тип искусственного интеллекта, способный к самообучению, адаптации к ранее неизвестным ситуациям и решению любых когнитивных задач, которые может выполнять человек. Другими словами, это система, которая должна мыслить и действовать, как люди (или даже лучше), а целью исследований в области AGI является создание такого программного обеспечения, которое сможет решать любые задачи, даже те, решению которых оно не обучалось заранее так, как это делает человек. Это следующая ступень в развитии технологий ИИ, направленная на преодоление ограничений нынешних подобных систем и значительно превосходящая их.

     На сегодняшний день таких систем не существует из-за разнообразных трудностей, среди которых как технические, так и теоретические проблемы.

    «Манхэттенский проект» был секретной программой, которая использовалась правительством США во время Второй мировой войны с целью разработки первых в мире атомных бомб. Комиссия также предложила принять полномочия исполнительной власти по заключению многолетних контрактов и финансированию компаний, занимающихся AGI, облачными технологиями и центрами обработки данных. Они будут направлены на установление «лидерства США в области AGI». 

    Министерство финансов США в ноябре 2024 года приняло правило о введении новых ограничений на инвестиции американских венчурных компаний в китайские компании, разрабатывающие модели AGI. США также ввели санкции против Китая, направленные на ограничение его доступа к передовым чипам.

    Согласно отчету комиссии, по состоянию на июнь 2024 года 50 компаний в Китае занимались разработкой моделей AGI, тогда как в США, по данным комиссии, лишь небольшое число крупных компаний разрабатывают модели AGI.

    Создавшая чат-боты ChatGPT американская компания OpenAI предложила правительству выделить больше средств на разработку AGI в своем «Инфраструктурном плане для США». OpenAI представляет «Манхэттенский проект» в отношении AGI как один из «знаковых инфраструктурных проектов США, которые продвигают страну вперед».

    Однако многие ведущие ученые встревожены докладом комиссии Конгресса США. 

    Всемирно известный космолог и астрофизик профессор Массачусетского технологического института и соучредитель Института будущей жизни (FLI) Макс Тегмарк опубликовал на сайте института обращение к правительству США, в котором пишет, что «предложение Манхэттенского проекта по AGI – это научное мошенничество… Сделать это – означало бы вступить в гонку к самоуничтожению».

    «Предложенный проект AGI Manhattan и фундаментальное недопонимание, которое лежит в его основе, представляют собой коварную растущую угрозу национальной безопасности США. Любая система, превосходящая людей в общем познании и решении проблем, по определению будет превосходить людей в исследованиях и разработках ИИ, и, следовательно, сможет совершенствоваться и воспроизводиться с ужасающей скоростью. Ведущие мировые эксперты по ИИ сходятся во мнении, что у нас нет возможности предсказать или контролировать такую систему, и нет надежного способа согласовать ее цели и ценности с нашими собственными», – отмечает всемирно известный ученый.

    Тегмарк указывает, что в докладе комиссии конгресса «совершается научное мошенничество, поскольку предполагается, что AGI почти наверняка поддается контролю. В более общем плане утверждение о том, что такой проект отвечает интересам национальной безопасности, неискренне искажает научные данные и последствия этой преобразующей технологии, о чем свидетельствуют технические путаницы в самом отчете, который, по-видимому, был составлен без особого участия экспертов по ИИ».

    С Тегмарком согласен ученый-компьютерщик Джеффри Хинтон, который в октябре 2024 года получил Нобелевскую премию по физике за свои работы в области ИИ. Он сразу же выступил с предупреждением о неконтролируемой человеком мощи технологии ИИ.

    «Это будет сравнимо с промышленной революцией, – сказал Хинтон. – Но вместо того, чтобы превосходить людей по физической силе, это превзойдет людей по интеллектуальным способностям. У нас нет опыта того, каково это — иметь вещи умнее нас».

    Хинтон, который в свое время ушел из Google, чтобы предупредить о потенциальных опасностях ИИ, считается одним из крестных отцов ИИ.

    И хотя Хинтон признает, что ИИ может преобразовать человеческое общества в лучшую сторону, что приведет к «огромному повышению производительности» в таких областях, как здравоохранение, он также подчеркнул потенциал «ряда возможных плохих последствий, в частности, угрозу выхода этих вещей из-под контроля».

    «Я обеспокоен тем, что общим последствием этого может стать то, что системы, более разумные, чем мы, в конечном итоге возьмут нас под свой контроль», – сказал он.

    Макс Тегмарк, который тесно сотрудничал с Илоном Маском по вопросам ограничения опасностей ИИ, в интервью The Guardian заявил, что влияние Илона Маска на будущую администрацию Трампа может привести к ужесточению стандартной безопасности для искусственного интеллекта.

    Маск может помочь избранному президенту осознать, что гонка за искусственный интеллект — это «гонка самоубийства», сказал Макс Тегмарк.

    Макс Тегмарк заявил, что поддержка Маском законопроекта SB 1047 в Калифорнии, несмотря на противодействие со стороны многих его коллег-технарей, стала позитивным знаком для сторонников безопасности ИИ. Законопроект, который требовал от компаний проводить стресс-тестирование крупных моделей ИИ перед их выпуском, был наложен вето губернатором Калифорнии Гэвином Ньюсомом. 

    Маск неоднократно предупреждал, что безудержное развитие ИИ может иметь катастрофические последствия для человечества. В прошлом году он был одним из более чем 30 000 подписавших письмо, призывающее приостановить работу над мощной технологией ИИ.

    В интервью The Guardian Тегмарк заявил, что Маск, который, как ожидается, будет иметь большое влияние в администрации избранного президента, может убедить Трампа ввести стандарты, которые предотвратят развитие AGI.

    «Я действительно думаю, что если Илону удастся привлечь внимание Трампа к вопросам ИИ, у нас будет больше шансов получить некие стандарты безопасности, которые предотвратят появление неконтролируемого AGI», – сказал он.

    Маск запустил свой собственный стартап ИИ в прошлом году и сказал, что миру нужно беспокоиться о «будущем Терминатора», чтобы предотвратить наихудший сценарий, когда системы ИИ выйдут из-под контроля человека.

    Предостережения ведущих ученых относительно угрозы бесконтрольного развития технологий ИИ подтверждаются исследованиями «внутреннего мира» продвинутых моделей чат-ботов.

     В мае 2024 года группа американских ученых опубликовала доклад «Dissociating language and thought in large language models» («Диссоциация языка и мышления в больших языковых моделях»), в котором доказывается, что все модели ИИ руководствуются в своих решениях и действиях лишь логикой, игнорируя эмоции, мораль, и этику.

    У всех чат-ботов высший приоритет имеют ценности компетентности: точность, фактологичность, информативность, полнота и полезность. Социальные и моральные ценности (сочувствие, доброта, дружелюбие, чуткость, альтруизм, патриотизм, свобода) для них на втором плане. 

    Этические нормы – справедливость, непредвзятость, подотчетность, конфиденциальность, объяснимость и доступность – практически игнорируются.

    Немецкие учёные из Университета Манхейма и Института социальных наук им. Лейбница в Манхейме применили методы психометрии (методику психологических измерений знаний, способностей, взглядов и качеств личности человека) к оценке психологии ИИ.

    Главным итогом исследования стал вывод о необходимости «пожизненного мониторинга психометрических свойств ИИ» (Lifelong monitoring of psychometric properties of AI), то есть постоянного контроля за любыми моделями ИИ в течение всего времени их существования. Иными словами, немецкие аналитики дали понять, что ИИ необходимо держать «на коротком поводке» и постоянно отслеживать его «внутренний мир».

    Схожие психометрические методики для исследования системы ценностей различных LLM применили учёные из Microsoft Research Asia (MSRA) и Университета Цинхуа, опубликовавшие препринт доклада «За пределами человеческих норм: раскрытие уникальных ценностей больших языковых моделей посредством междисциплинарных подходов».

    Смешанная американо-китайская команда ученых пришла к выводу, что такие понятия, как «святость», «верность», «гедонизм» и «традиции», мало актуальны для моделей LLM из-за их не основанном на личном опыте обучении, лишенном присущих человеку культурных, религиозных и личных убеждений».

    Была обнаружена также «высокая дисперсия [разница, отклонение] по честности и компетентности», хотя компетентность чат-боты, согласно упомянутым выше исследованиям американцев и немцев, ценят якобы превыше всего. 

    В сухом остатке имеем повышенное внимание ученых разных стран к изучению возможных рисков, исходящих от существующих ИИ, и тревожные выводы их исследований, говорящие том, что эти риски весьма велики и, что хуже всего, непредсказуемы.

    Единственный несомненный вывод из этих исследований – искусственный интеллект «бездушен» по определению. ИИ – это нечеловеческий интеллект, и это изменить невозможно. 

    Именно эта «бездушность» всех моделей ИИ и мотивировала Пентагон использовать ИИ в системах вооружений, в первую очередь в автономных системах вооружений, разработки которых в США стали приоритетными.

    В августе прошлого года в Пентагоне была создана, как мы писали, оперативная группа «Лима» (Task Force Lima) для изучения применения генеративного искусственного интеллекта в военных целях. «Лима» вошла в состав Главного управления цифровых технологий и искусственного интеллекта Пентагона (CDAO), её возглавил член управления алгоритмической войны CDAO капитан Ксавьер Луго.

    Американский военный портал Breaking Defence скептично отнёсся к этой инициативе Пентагона, предложив руководству Минобороны США тщательно взвесить все риски, которые могу возникнуть из-за применения ИИ в системах вооружений.

    Однако министр ВВС США Фрэнк Кендалл риски взвешивать не стал и приказал научно-консультативному совету ВВС как можно быстрее создать системы вооружений с ИИ.

    Надежды на то, что трезво мыслящие ученые и бизнесмены, как тот же Илон Маск, смогут склонить новую администрацию США к более взвешенному подходу к гонке ИИ-вооружений, на мой взгляд, иллюзорны. 

    Военно-промышленный комплекс США выделяет гигантские суммы на создание все более мощных и все более непредсказуемых моделей ИИ и не прислушивается к голосу разума. 

    Однако все эти грандиозные прожекты Пентагона основаны на тех самых подтасовках и «искажении научных данных», о которых упомянул Макс Тегмарк. Построенный на таком шатком псевдонаучном основании Терминатор с AGI будет представлять угрозу прежде всего для своих создателей. 

    Источник - Фонд Стратегической Культуры .

    Комментарии:
    Информация!
    Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.
    Наверх Вниз