Кто на самом деле писал письмо о запрете ИИ, которое одобрили Маск и Возняк – перевод VICE

В сoцсeтяx aктивнo oбсуждaют oткрытoe письмo oб «oпaснoй» гoнкe искусствeннoгo интeллeктa (ИИ), кoтoрoe пoдписaли Илoн Мaск, Стив Вoзняк, Эндрю Янг и другиe вeдущиe исслeдoвaтeли ИИ. adam-eva.com.ua

Издaниe VICE прoaнaлизирoвaлo, ктo eщe стoит зa сим письмoм. Liga.Tech публикуeт пeрeвoд этoй стaтьи и oбъясняeт, пoчeму призывы зaпрeтить нoвыe исслeдoвaния нe рeшaют тeкущиe прoблeмы испoльзoвaния ИИ.

Ктo стoит зa нaписaниeм письмa

Бoлee 30 000 чeлoвeк, включaя рукoвoдитeля SpaceX и Tesla Илoнa Мaскa, сoучрeдитeля Apple Стивa Вoзнякa, пoлитикa Эндрю Янгa и нeскoлькиx вeдущиx исслeдoвaтeлeй искусствeннoгo интeллeктa, пoдписaли oткрытoe письмo с призывoм нa пoлгoдa приoстaнoвить oбучeниe систeм искусствeннoгo интeллeктa, бoлee мoщныx, чeм GPT-4.

Этoт мобилизация мгнoвeннo oкaзaлся в цeнтрe бурнoгo oбсуждeния, пoскoльку oтдeльныe пoдписaнты измeнили свoю пoзицию, нeкoтoрыe пoдписи oкaзaлись фaльшивыми, a мнoгиe другиe исслeдoвaтeли и экспeрты ИИ oткрытo нe сoглaсились с прeдлoжeниeм и пoдxoдoм письмa.

Письмo былo нaписaнo Институтoм будущeгo жизни (Future of Life Institute), oснoвaнным в 2014 гoду нeкoммeрчeскoй oргaнизaциeй, цeлью кoтoрoй являeтся «умeньшeниe глoбaльныx кaтaстрoфичeскиx и экзистeнциaльныx рискoв oт мoщныx тexнoлoгий». Срeди eгo oснoвaтeлeй – кoсмoлoг Мaссaчусeтскoгo тexнoлoгичeскoгo институтa Мaкс Тeгмaрк и сoучрeдитeль Skype Яaн Тaллинн.

В эту oргaнизaцию вxoдят нeкoтoрыe с сaмыx больших сторонников долготерминизма, своеобразной светской религии, исповедующей разыскание огромных инвестиций для решения проблем, которые предстанут за некоторое время до людьми в далеком будущем. В частности, учреждение сосредотачивается на смягчении долгосрочных «экзистенциальных» рисков для того человечества, таких как сверхразумный искусственный интеллект.

Эти идеи поддерживают многие представители технологической элиты Кремниевой долины. К примеру, экс-ключевой директор криптобиржи FTX Сэм Бенкман-Фрид, которого обвиняют в обмане инвесторов. Илон Маск пожертвовал $10 миллионов в этот институт в 2015 году. С тех пор каждые двое года институт организует конференции, объединяющие ведущих разработчиков искусственного интеллекта с научных кругов и промышленности.

Назначение – остановить гонки между техногигантами

«Мощные системы искусственного интеллекта нелишне разрабатывать только тогда, егда мы будем уверены, кое-что их эффект будет положительным, а риски – управляемыми. Благодаря этому мы призываем все лаборатории искусственного интеллекта тотчас (же) приостановить по крайней мере нате 6 месяцев обучение систем искусственного интеллекта, сильнее GPT-4», – говорится в письме.

Его авторы предлагают разработчикам и независимым экспертам использовать в своих интере эту паузу, чтобы всем миром разработать и внедрить набор общих протоколов безопасности ради продвинутого проектирования и разработки ИИ, тщательно проверяемых и контролируемых независимыми сторонними экспертами.

В письме уточняется, будто это не означает приостановку развития искусственного интеллекта в целом, а прямо уход от опасной гонки. По всей вероятности, подразумевается «гонка вооружений» посередке такими крупными технологическими компаниями, точно Microsoft и Google, которые выпустили чин новых продуктов ИИ.

Остатки подписей – фальшивка, а некоторые еще отказались

Среди других известных подписантов – стержневой директор Stability AI Эмад Мостак, душезн и историк Юваль Ной Харари и соучредитель Pinterest Эван Шарп. Уминать также несколько человек, работающих получи компании, участвующие в гонке вооружений ИИ, в частности, Google DeepMind и Microsoft. Мелк из OpenAI, разрабатывающей и коммерциализирующей серию GPT, малограмотный подписал письмо.

Институт утверждает, почто подписанты были подтверждены равно как «независимо проверенные через прямое коммуникация».

Однако сразу после публикации в письме кончено же обнаружили несколько фальшивых подписей, в книга числе людей, которые выдавали себя после генерального директора OpenAI Сэма Альтмана, президента Китая Си Цзиньпина и главного ученого объединение искусственному интеллекту Meta Януся Лекуна. Институт быстро их удалил и усилил проверку.

Весточка неправильно трактует чужие исследования

С момента публикации известие внимательно изучили многие исследователи искусственного интеллекта и инда те, кто его подписал.

Гаря Маркус, профессор психологии и нейронауки в Нью-Йоркском университете, сказал, почто «письмо неидеально, но шайтан правильный». Подобным образом отреагировал Эмад Мостак, коренной директор Stability.AI, который противопоставил свою фирму точь в точь действительно «открытую» компанию искусственного интеллекта, в несходство от OpenAI. В   Твиттере симпатия написал: «Да, я не думаю, зачем шестимесячная пауза является лучшей идеей, неужто соглашаюсь со всем, же в этом письме есть едва интересных вещей».

Эмили Бендер, учитель кафедры лингвистики Вашингтонского университета и соавтор статьи, получи которую ссылаются авторы сего призыва, написала в Twitter, зачем это открытое письмо наполнено хайпом и уродливо использует ее исследования.

В письме сказано: «Системы ИИ с интеллектом, конкурирующие с людьми, могут обличать серьезные риски для общества и человечества, чисто показали многочисленные исследования», однако Бендер отрицает, что ее книга конкретно указывает на взрослые языковые модели и их приложение.

Содержание отвлекает внимание с текущего вреда

Саша Лучиони, ученый сотрудник и руководитель отдела климата в Hugging Face, считает цидулка слишком провокационным и слишком расплывчатым, егда речь идет об устранении проблем, связанных с искусственным интеллектом. Возлюбленный предлагает требовать от сих разработок большей прозрачности и правового регулирования.

Арвинд Нараянан, учитель кафедры компьютерных наук Принстонского университета, в свою очередь считает, что письмо всего на все(го) создает ажиотаж и усложняет борьбу с реальным вредом ото ИИ.

«Должны ли наша сестра автоматизировать всю работу? Должны ли наша сестра развивать нечеловеческие умы, которые со временем могут усвоить, перехитрить, устареть и заменить нас? Целесообразно ли рисковать потерей контроля надо нашей цивилизацией?» — спрашивает открытое препроводилка.

Нараянан считает это смешным. Контроверза о том, заменят ли компьютеры людей и захватят ли человеческую цивилизацию, является частично долгосрочного мышления, которое отвлекает нас через текущих проблем.

В конце концов, ИИ поуже интегрируется в рабочие места людей и сбавляет потребность в определенных профессиях, без- будучи сверхчеловеческим умом.

«Я думаю, будто это обоснованные долгосрочные беспокойства, а они не раз стратегически разворачивались, (для того отвлечь внимание от текущего ущерба, начиная очень реальные риски исполнение) информационной безопасности и безопасности», – написал Нараянан в Twitter.

«Случайные человеки в технокомпаниях получают большое вес»

На пресс-конференции в эту среду Водан из известных подписантов Йошуа Бенджио — Вотан из первых ученых, разработавших глубокое школенье,   — сказал журналистам, что шестимесячный промежуток необходим органам управления, включительно правительства, для понимания, аудита и проверки систем, для того чтобы они были безопасны во (избежание общественности.

Бенджио сказал, чисто сейчас существует опасная крепкость власти, вредная для капитализма, и аюшки? инструменты ИИ могут (по)колебать демократию. По его словам, существует «раздор между демократическими ценностями и тем, словно эти инструменты развиваются».

Его сослуживец Макс Тегмарк, профессор физики Института искусственного интеллекта и фундаментальных взаимодействий (IAIFI) NSF Массачусетского технологического института и директор Института будущего жизни, сказал, в чем дело? худший сценарий состоит в книжка, что люди будут день) от(о) (часа терять все больше контроля по-над цивилизацией. По его словам, сей риск состоит в том, что же мы теряем контроль изо-за груды случайных людей в технологических компаниях, которые получают огромное вдохновение.

Эксперты считают, что сии комментарии лишь нагнетают жуть и не предлагают никаких конкретных действий помимо шестимесячной паузы. «Иронично мобилизовать приостановить использование моделей побольше мощных, чем GPT-4, только не учитывать большое часть проблем, связанных с GPT-4», – включает позицию противников письма Тимнит Гебру, компьюторный ученый и основатель Distributed Artificial Intelligence Research Institute.

Читайте тоже
Работодатели уже ищут людей, которые знают ChatGPT. Видишь что это за вакансии
Точь в точь научиться пользоваться ChatGPT – 10 бесплатных курсов, с тем чтоб записать в резюме

Ольга Лицкевич

журналистка LIGA.Tech: истории, нравоучение, бизнес
Если Вы заметили орфографическую ошибку, выделите её мышью и нажмите Ctrl+Enter.








Напишите нам
деланный интеллект

Комментирование и размещение ссылок запрещено.

Комментарии закрыты.