Илон Маск не понимает ИИ. Нет, правда, не понимает.

Мнения

Фасад Маска рушится на наших глазах. Еще несколько лет назад он был золотым мальчиком капитализма, визионером-инженером, революционным бизнес-лидером и спасителем окружающей среды. Он создал идеальный миф вокруг себя и пожинал плоды. Но все это теперь исчезло. Общественное восприятие Маска изменилось: его теперь видят как антидемократического, лицемерного защитника свободы слова, распространяющего дезинформацию, расиста, женоненавистника, противника профсоюзов, спекулянта, попавшего в кризис среднего возраста, эгоистичного, мелочного, жадного до денег идиота-бизнесмена, который добился своего только благодаря агрессивным поглощениям и манипуляциям. Но что еще важнее, он, похоже, вообще не понимает технологии, на которых основаны его компании. Это падение в немилость стоит изучить, но это далеко выходит за рамки этой статьи. Вместо этого я хочу сосредоточиться на подходе Маска к одной конкретной технологии — ИИ, так как это иллюстрирует полное отсутствие у Маска понимания и осведомленности. Видите ли, от автопилота Tesla до нового генератора изображений Grok AI на платформе X, Маск не только не понимает, что такое ИИ на самом деле, но и не осознает его очевидные ограничения.

Начнем с упомянутого генератора изображений Grok AI.

Grok, генератор текстов на основе ИИ, уже столкнулся с серьезными проблемами. У него нет ограничений на выходные данные, что делает его идеальным для распространения дезинформации или откровенно вредоносной информации. Например, журналист недавно обнаружил, что легко может заставить Grok подтвердить, что Илон Маск — педофил. Это блестящий пример того, насколько опасными могут быть «галлюцинации» ИИ, ведь нет никаких доказательств того, что Илон на самом деле педофил. Но версия Grok для генерации изображений подняла эту проблему на новый уровень.

Этот инструмент также не имеет программных ограничений на то, что он может создавать. Таким образом, он легко генерирует материалы, защищенные авторским правом, и фотореалистичные изображения знаменитостей и общественных деятелей в клеветнических ситуациях. Например, он уже создал изображения Микки Мауса с оружием на фоне моря трупов и Пикачу, стреляющего из УЗИ.

Все другие генераторы изображений на основе ИИ имеют блокировки, чтобы предотвратить создание таких изображений. Тем не менее, Маск убрал их из Grok, чтобы, как он утверждает, избежать политического вмешательства и чтобы его ИИ не был «воук» (что бы это ни значило). Это не только открывает Grok (и X) для крупных исков, но и является массовым проявлением лицемерия.

Маск годами предупреждал мир о том, насколько опасным может быть неуправляемый ИИ. Одной из самых насущных опасностей является использование ИИ для заполнения интернета огромным количеством вредоносной дезинформации, что может нанести непоправимый ущерб демократии и нашей рыночной экономике. Таким образом, создавая свой анти-воук ИИ, он создал именно то, о чем нас всех предупреждал. Лицемер!

Во-вторых, существует юридическая причина, по которой другие модели ИИ имеют эти блокировки. Они защищают их от исков за клевету от владельцев авторских прав и исков от тех, кто пострадал от вредоносных изображений или текстов, которые эти модели неизбежно создадут. Это также поддерживает их аргумент о «добросовестном использовании» в отношении сотен гигабайт защищенных авторским правом видео, использованных для обучения этих моделей ИИ, поскольку с этими блокировками модели не могут напрямую воспроизводить защищенные материалы, что нарушает принципы добросовестного использования. Иными словами, Grok может подвергнуть X искам со стороны Disney, Камалы Харрис или тех, кто пострадал от политических беспорядков, вызванных ложными данными, созданными Grok.

Но и другие проекты Маска в области ИИ не менее плохи.

Возьмем, к примеру, систему Full-Self Driving (FSD) Tesla. Несмотря на вводящее в заблуждение название, эта система помощи водителю далека от полной автономности, и, на самом деле, есть множество доказательств того, что она крайне небезопасна. Почему? Ну, Маск урезал систему, чтобы увеличить прибыль, и фактически саботировал свой собственный ИИ.

Понимаете, ни один ИИ не может быть на 100% точным, независимо от того, сколько данных для обучения вы в него загрузите. Более того, датчики окружающей среды, которые используют эти системы, также не на 100% надежны и могут выдавать аномальные показания. Это особенно верно для датчиков компьютерного зрения, которые используют видеокамеры и ИИ для понимания окружающего мира, поскольку и камеры, и ИИ имеют свои погрешности, которые только усугубляются. Вот почему самоуправляемые автомобили оснащены множеством различных датчиков, таких как лидары, 4D-радары, ультразвуковые датчики и камеры, и многие из них на самом деле используют несколько программ ИИ для самоуправления, используя эти различные датчики. Это позволяет им проверять и устранять ошибки в работе датчиков и ИИ, сравнивая потоки данных и результаты работы нескольких ИИ.

Возьмем недавно анонсированный Zeekr 007. У него есть два ИИ-компьютера и 33 датчика, включая лидар, радар, ультразвуковые датчики и камеры, и он должен достичь полной автоматизации от двери до двери в следующем году!

А что насчет Tesla’s FSD? Ну, в 2021 году Маск вопреки советам своих инженеров снял с новых Tesla все датчики, кроме камер, оставив FSD только 8 камер для понимания окружающего мира. Почти десяток бывших сотрудников Tesla, тестировщиков, специалистов по безопасности и других экспертов сообщили о росте числа аварий, опасных ситуаций и других позорных ошибок автомобилей Tesla после того, как Маск внес это изменение. На самом деле, бывший оператор тестов заявил, что компания «далека от завершения разработки продукта».

Более того, с 2021 года разработка FSD замедлилась до черепашьих темпов. Почему? Маск думал, что сможет сократить производственные затраты и увеличить прибыль Tesla, убрав эти датчики и компенсировав это за счет обучения ИИ на еще большем объеме данных. Теоретически это сделало бы ИИ более точным и устранило бы необходимость в этих проверках и балансах. Однако Маск не учел, что мы уже подходим к точке, где добавление данных дает все меньше результатов (подробнее об этом здесь). Таким образом, ему потребовалось бы огромное и практически неосуществимое количество данных, вычислительной мощности и энергии, чтобы создать такой точный ИИ. Именно поэтому компании, такие как Zeekr, Mercedes и Waymo, обогнали Tesla в гонке самоуправляемых автомобилей и разработали гораздо более совершенные системы, несмотря на меньшие сроки разработки, расходы и доступные данные для обучения.

Но это действительно не должно удивлять. В 2021 году Маск признал, что считал, что создание самоуправляемого автомобиля сложнее, чем он думал, в своем твите (Xeet?): «Ха-ха, бета-версия FSD 9 скоро выйдет, клянусь! Обобщенное самоуправление — это сложная задача, так как требует решения большой части задач ИИ в реальном мире. Я не ожидал, что это будет так трудно, но с ретроспективной точки зрения это очевидно. Ничто не имеет больше степеней свободы, чем реальность». Ну, конечно. Есть интервью с Джеймсом Мэй и другими не-экспертами по ИИ, которые говорили то же самое о ИИ еще более десяти лет назад. Действительно ли Маск думал, что если загрузить в ИИ достаточно данных, он волшебным образом решит все сложные проблемы реального мира, связанные с вождением?

Почему Маск так поступает? Маск, похоже, относится к ИИ как к когнитивной машине, а не как к статистической модели, которой он является. Он принадлежит к движению, которое считает, что код и математика могут решить все проблемы человечества или даже превзойти нас, и все, что нужно сделать, это загрузить в эти машины как можно больше данных, чтобы это произошло. Однако это не так. Все, что может делать ИИ, это воспроизводить шаблоны, найденные в данных. Вот и все. Он не понимает, что делает, не может создавать ничего нового или решать задачи, которые еще не были решены.

Забавно, что Маск относится к своим проектам ИИ как к более когнитивным, самосознающим, индивидуальным и человечным, чем к некоторым из своих настоящих детей...

Но это заблуждение было продемонстрировано в начале этого года, когда один из «крестных отцов» ИИ призвал Маска к ответу за его бред о ИИ.

Все началось, когда Маск твитнул (ксеетнул?), что ИИ «возможно, станет умнее любого человека уже в следующем году» и что «к 2029 году ИИ, вероятно, будет умнее всех людей вместе взятых». Лекун, один из людей, которым приписывают изобретение современного ИИ, ответил: «Нет. Если бы это было так, у нас были бы ИИ-системы, которые могли бы научиться водить машину за 20 часов практики, как любой 17-летний подросток. Но у нас до сих пор нет полностью автономного и надежного самоуправляемого автомобиля, даже несмотря на то, что у нас (у вас) есть миллионы часов размеченных данных для обучения». Больно!

Но это правда: ИИ не является по-настоящему интеллектуальным; он на самом деле не думает о том, что делает, и на самом деле невероятно неэффективен в обучении. Таким образом, любые прогнозы о том, что ИИ станет сверхчеловечески умным, — полный бред.

Со всем этим можно ли действительно утверждать, что Маск понимает, что такое ИИ, не говоря уже о том, чтобы быть пионером в этой области? Он постоянно не признает, как на самом деле работает ИИ, какие у него ограничения, а также юридические и этические последствия его использования (я даже не упомянул людей, погибших из-за FSD, в этой статье). Но в этом есть и светлая сторона. Маск фактически направляет почти все свои компании на путь развития ИИ, и эти неудачи означают, что он фактически саботирует эти компании изнутри. Tesla — это компания, занимающаяся ИИ и самоуправляемыми автомобилями, с опасно дефектным продуктом, который до сих пор не является автономным, а X (Twitter) — это социальная сеть с встроенной машиной клеветы, оскорблений, нарушений авторских прав и дезинформации. Ни один из этих подходов не является хорошей бизнес-моделью. По сути, ошибочные представления Маска об ИИ строят его собственную неловкую гробницу, где его положительный публичный имидж и компании могут спокойно умереть.