cookie

Ми використовуємо файли cookie для покращення вашого досвіду перегляду. Натиснувши «Прийняти все», ви погоджуєтеся на використання файлів cookie.

avatar

Чорт ногу сломит

Цифровые технологии хакнули ваш мозг. Надзорный капитализм, большие данные, ИИ — с точки зрения психологии и цифровой осознанности.

Більше
Росія85 080Російська93 528Факти2 756
Рекламні дописи
4 899
Підписники
-324 години
-237 днів
+2330 днів

Триває завантаження даних...

Приріст підписників

Триває завантаження даних...

Microsoft вслед за OpenAI и Google представила свой вариант мультимодального ИИ-агента — функцию Windows под названием Recall. Суть Recall заключается в том, что ИИ от Microsoft беспрерывно делает скриншоты всего, что вы делаете на своем устройстве, размещает эти данные на таймлайн и упрощает поиск по всему что происходило. Честно говоря, мне сложно объяснить, в чем польза такого ИИ-надзирателя с памятью обо всем, что вы делали на своем компьютере последние 3 месяца. Рекламные ролики демонстрируют, как журналистка ищет «коричневую кожаную сумочку» в своей браузинг-истории и Recall находит сайт с фотографией коричневой кожаной сумочки, «хотя на странице нет такого словосочетания — ИИ нашел ее потому что просто “увидел” ее на фотографии». CEO Microsoft Сатья Наделла с нервной улыбкой на лице говорит, что это не страшный ИИ-надзиратель, потому что он работает только на вашем устройстве: мол, чтобы не бояться, пользователю нужно повторять “это мой компьютер” и “это мой Recall” и “все это происходит на моей машине”. От этой мантры мне сразу вспомнился недавний эксперимент блогера, который установил на свой компьютер Windows XP, подключился к интернету и просто ничего не делал: уже через 10 минут на компьютере появился вирус от российских хакеров. Конечно, современные версии Windows лучше в плане безопасности, но это все же неимоверно дырявая и уязвимая для хакеров система. Не говоря уже о том, что сам Microsoft, безусловно, найдет 1000 и 1 способ, как извлечь выгоду из таких подробных пользовательских данных. Раньше похожие на Recall программы назывались spyware, если за пользователем в темную следили хакеры, или bossware, если за ним полуофициально следили его работодатели — Microsoft по сути просто добавил к такому spyware удобный ИИ-поиск. Не скрою, что пока я писал этот пост, мне самому не помешал бы такой Recall, потому что мне пришлось искать ссылку о вирусе на Windows XP, которую я открывал 3 дня назад. Тем не менее, Microsoft перешагнул очень жирную creepy line, связанную с частной жизнью пользователей, — перешагнул грубее и глупее своих коллег из OpenAI и Google. Мультимодальные ИИ-агенты — нейросети, которые умеют “видеть, слышать и читать” — это идеальные инструменты для двух целей: во-первых, используя их, пользователи будут создавать бесконечные потоки новых данных, необходимых корпорациям для дальнейшего развития ИИ; а во-вторых, ИИ-агенты станут идеальными надзирателями. Думаю, надзорная функция ИИ-агентов сначала будет обкатываться на двух категориях граждан: на детях и на преступниках. Родители сами захотят поставить над чадом “ИИ-няню” или что-то в этом роде, чтобы они не заходили на нежелательные сайты, не общались с опасными людьми и учили уроки. А государство будет приставлять ИИ-надзирателя к рецидивистам, которым закон запрещает свободно пользоваться интернетом, взаимодействовать с людьми, взламывать компьютеры и т.д. Но на самом деле даже создатели ИИ-надзирателей не знают, чем обернется для нашей цивилизации такое изобретение, этот уже настежь открытый ящик Пандоры. Корпорации открыли его из-за жадности и нежелания отстать от конкурентов, а правительства поощряют корпорации из-за своей параноидальной тяги к войне и доминированию любыми средствами. Остается только наслаждаться этой поездкой и постараться свергнуть тиранов до того, как ИИ-надзиратели под их чутки началом превратят Землю в Ад.
Показати все...
Recall is Microsoft’s key to unlocking the future of PCs

Would you like a timeline of everything you do on your PC?

😨 10🐳 4👍 1 1😭 1🙈 1
Эрик Шмидт — техномиллиардер, бывший CEO Google и один из ключевых персонажей, работающих на стыке Кремниевой долины и Пентагона. Шмидт долгое время отвечал за цифровизацию американской армии и возглавлял комитеты по оценке опасности ИИ, в том числе в военной сфере. Он открыто поддерживает Украину в войне против РФ и недавно рассказал о своем видении будущего войн: «То, что происходит в Украине – это образ того, что будет происходить в будущем. Год назад я мог поехать на фронт и потусоваться с военными, пошутить и так далее. Погода была хорошая и еда была вкусной. Теперь там практически невозможно передвигаться ни днем, ни ночью, потому что в небе пробка из дронов – как наших, так и вражеских. Это настоящая зона смерти. Повсеместное распространение дронов означает, что танки, артиллерия и минометы перестанут быть основным оружием войны. Я настроен оптимистично и думаю, что как только страны научатся правильно массово использовать дроны для обороны, вторжение в соседние страны станет невозможным: как только через границу выдвинутся танки, их можно будет просто разбомбить дронами. Дрон стоит 5000 долларов или меньше, а танк стоит 5 миллионов долларов, поэтому танки просто не выживут. Можно произвести достаточно дронов, чтобы реализовать такую концепцию обороны». Мне понравилась оборонная концепция Шмидта: армия дронов, а не людей, которая делает технически невозможным полномасштабное вторжение соседа. Это конструктивное видение будущего для Украины, которой после окончания этого раунда конфликта в любом случае придется думать о защите от будущих поползновений РФ. Сам Шмидт еще в августе 2023 основал компанию с украинскими корнями White Stork («Белый Аист»), специализирующуюся на небольших дронах-камикадзе, которые, предположительно, используются украинскими военными на фронте. Об этом полусекретном проекте известно мало: особенность “аистов” в том, что они полагаются на ИИ-зрение для определения целей в зонах, где дистанционное управление дронами невозможно из-за активной работы средств радио-электронной борьбы (РЭБ) противника. «Сегодняшние дроны не особо продвинуты в области искусственного интеллекта, но еще год американской помощи Украине — и вы увидите асимметричные инновации, которые смогут позволить молодой демократии (Украине), которая изо всех сил старается, противостоять действиям крупной нападающей державы (РФ). Циники скажут: “Ну, это означает, что США станет труднее вторгаться в соседние страны”. Это тоже может быть правдой. Но теперь я увидел настоящую войну, а не то, что показывают в фильмах (у меня есть много видеороликов со смертями от дронов, которые я никому не покажу) — и это действительно ужасно. Мы хотим сделать все возможное, чтобы остановить войны», — говорит Шмидт. Это самый брутальный и циничный сбор данных для тренировки ИИ, который я где-либо встречал. Появление таких автономных дронов-камикадзе, теоретически, может, и положит конец захватническим войнам — но их развитие стоит крови украинским военным. В этом смысле роботы-убийцы, которых наша культура боялась и избегала так долго, — убийцы во всех смыслах слова, потому что даже их рождение сопряжено с бесконечными человеческими смертями.
Показати все...

👍 9🔥 5🤔 4🕊 4😭 2 1🐳 1🍌 1
Пропаганда была частью политического процесса уже 4 тысяч лет назад. Во времена Древнего Египта жрецы убеждали граждан в божественной природе фараона и своей власти с помощью стелл, папирусов и статуй. Ппопаганда широко использовалась в Древнем Риме, где политики и императоры заказывали художникам, скульпторам и поэтам произведения, прославляющие их самих и демонизирующие их врагов. Суть пропаганды не менялась тысячелетиями — менялись только медиумы и средства ее распространения. Само латинское слово «пропаганда» стало официальным термином в 1622 году, когда Папа Римский Григорий XV указом создал Конгрегацию пропаганды веры — католический орган, который должен был распространять католическую веру, особенно в Африке и Америке. Католики пытались подавить распространение идей протестантизма, ставшим очень популярным потому, что его апологеты крайне ловко использовали печатный станок, изобретенный в 1440-х, для своей пропаганды. Печатный станок и напечатанные на нем книги, а позднее — и пресса, почти на 5 столетий стали основными инструментами любой пропаганды. Изобретение радио и кино в конце 19 века вывело пропаганду на принципиально новый уровень, так как эти медиумы сочетали, с одной стороны, убедительность древних средств вроде устной речи и спектакля — с массовостью и легкостью распространения газеты или книги. А популярность самого термина «пропаганда» стала неуклонно расти и достигла апогея в период Первой и Второй мировой войн и борьбы трех идеологий: социализма, фашизма и демократии. Если в 17 веке термин «пропаганда» в обиход ввел Папа Римский, то в 20 веке его зацементировал Эдвард Бернейс, выпустивший в 1928 году одноименную книгу. Хотя на первый взгляд кажется, что пропаганда была коронной фишкой тоталитарных социализма и фашизма, американец Бернейс настаивал, что и демократия невозможна без пропаганды. «Сознательное и разумное манипулирование организованными привычками и мнениями масс — важный элемент демократического общества. Те, кто манипулирует этим недоступным взору механизмом общества, составляют невидимое правительство — истинную правящую силу нашей страны. Нами управляют, наши умы формируют, наши вкусы создают, наши идеи внушают, в основном, люди, о которых мы никогда не слышали», — писал Бернейс. Уберите отсюда демократию, и получите жрецов Древнего Египта. Начиная с 1950-х и начала Холодной войны, основным медиумом пропаганды стало телевидение, которое совмещает в себе все предыдущие формы и средства: картинку, текст, речь, звук и музыку. Пресса, радио и телевидение позволяют власть имущим, контролируя бурно увеличивающиеся потоки информации — контролировать содержимое сознания масс. И, наконец, в 1990-х появляется интернет. Пионеры интернета верили, что эта технология сможет освободить людей от тотального воздействия пропаганды, чьи ужасные плоды мы увидели в двух мировых войнах. Интернет нарушил одну из основ пропаганды: одностороннюю направленность информационного потока, сделав обмен информацией горизонтальным и лишив условных жрецов-идеологов монополии на правду, которую они спускают сверху-вниз на массы людей. Но пропаганда никуда не ушла. В конце 2000-х появляются смартфоны и социальные сети. Так средства распространения пропаганды попали каждому человеку в карман: это уже не газета, за которой нужно пойти и купить, не телевизор и не радио, к которым нужно прийти и включить их — это все сразу у человека в ладони. В 2010-х в соцсетях возникают умные ленты: ИИ начинает работать на пару с живыми пропагандистами — так начинается новый виток пропагандистских войн, в этот раз на кибернетических стероидах. А ставшие на этой неделе официальным мейнстримом ИИ-агенты — очевидно, следующая ключевая для пропаганды технология. И все же суть пропаганды не меняется тысячелетиями.
Показати все...
👍 13 3🤔 2😢 1🤓 1👨‍💻 1
02:17
Відео недоступнеДивитись в Telegram
Astra AI demo
Показати все...
😱 8 3🤔 1
Вчера Google провела очередную конференцию Google I/O, посвященную новинкам в сфере ИИ. Событие прошло на следующий день после аналогичного мероприятия от OpenAI и в целом было о том же. Google представил Veo — свою ИИ-модель для генерации видео из текста, рассказал про новый чип для ИИ под названием Trillium и показал, как ИИ теперь будет интегрирован в их поисковик и в YouTube. Интеграция ИИ в самый популярный поисковик, основную статью дохода и главное конкурентное преимущество Google, важный шаг и ответ OpenAI и другим компаниям, которые хотят урвать себе кусок поискового пирога. Пока эта интеграция выглядит не очень впечатляюще. Главные обновления касаются Gemini — флагманской ИИ-модели Google, а точнее, построенного на ее основе мультимодального ИИ-ассистента под названием Astra. Astra может воспринимать звук, текст и изображения и делать с ними что-то полезное для вас. И такую же фичу своего ИИ позавчера продемонстрировали OpenAI. За два дня мы уверенно перешли из эпохи больших языковых моделей, с которыми можно только переписываться, в эпоху мультимодального ИИ. Точнее, мультимодальных ИИ-агентов, которые видят, слышат и “понимают” окружающий мир. Камеры и микрофоны на наших девайсах становятся глазами и ушами ИИ-агентов, а чипы и накопители информации превращаются в их мозги и память. Можно выделить два типа ИИ-агентов: 1) личные агенты попроще — они будут основываться на простых ИИ-моделях с небольшим количеством параметров (до 10 млрд), жить на наших персональных устройствах, иметь доступ ко всей нашей личной информации и работать на нас как личные ассистенты; 2) облачные агенты посложнее — в основе этих будут лежать громадные ИИ-модели (с сотнями миллиардов параметров), они будут жить в облаке, будут на порядки мощнее и утонченнее личных ассистентов, ну и либо будут, либо не будут иметь доступ ко всей нашей личной информации, как повезет. Презентации OpenAI и Google — самое начало мультимодальных ИИ-агентов, но это очень большой культурный сдвиг, который доказывает, что человечество резко перестало бояться ИИ и открыло ящичек Пандоры. Кошмарный потенциал этой технологии, может, и не просматривается изнутри благополучных комьюнити Кремниевой долины и в богатых потребительских обществах, но его очень легко разглядеть на примере все более тоталитарной РФ. Например, одна из фич, показанных Google, заключается в том, что их маленькая модель Gemini Nano сможет теперь слушать разговоры пользователей Android-смартфонов и прерывать их беседу предупреждением о подозрительной активности: например, сообщит вам, что вы говорите с мошенником, потому что банки не просят вас перевести деньги куда-то. А теперь представьте, что эта маленькая модель называется нe «Gemini Nano», а, скажем, «Мини ФСБшка» — он тоже стоит на телефонах и предупреждает вас (или не вас) о подозрительной активности. Выход один: автократии и тирании должны исчезнуть до того, как ИИ-агенты станут общим местом.
Показати все...
👍 10 8🤯 5😢 2❤‍🔥 1
ИИ-комьюнити взахлеб обсуждает новинку от OpenAI — языковую модель GPT-4o. Энтузиасты не жалеют характеристик вроде “сумасшествие” или “безумие”, говоря о новинке, и считают что это очередная ИИ-революция. “Мы уже почти в фильме Her”, говорят они. Скептики и конкуренты компании отмечают что это скорее фейл, чем победа. Все с замиранием сердца ждали на вчерашней презентации GPT-5 — чего-то принципиально нового, следующего шага на пути к сильному ИИ, который подтвердил бы лидерский статус компании Альтмана. Вместо этого получили 4o — слегка улучшенную версию 4 Turbo, которая была улучшенной версией модели 4. За 14 месяцев работы над GPT-5 компании все еще нечего предьявить, из-за чего многие опять заговорят о заморозке ИИ-прогресса и про утрату OpenAI лидерской позиции. Главная новация модели GPT-4o — улучшенная способность нейросети воспринимать любую комбинацию звука, текста и изображения и выдавать ответы в форме звука, текста и изображений. Если упростить — нейросеть стала лучше разговаривать и понимать, что она видит, если вы разрешаете ей смотреть на мир через камеры ваших девайсов. Например, вы можете навести камеру смартфона на птичек в озере и нейросеть расскажет вам, что это за птички, что они делают и посоветует чем их кормить. Такая функция очевидно круто будет смотреться в очках дополненной реальности, чтобы вы просто спрашивали “что я вижу?” и она отвечала, спрашивали “что мне делать с этим?” и она инструктировала. Пока у OpenAI, в отличие от Meta, нет своих очков — и, возможно, о создании какого-то такого девайса Альтман и договаривается с Джони Айвом, отвечавшим за дизайн айфона в Apple. Кстати он и с Apple договаривается, чтобы интегрировать ChatGPT в iOS 18 для айфонов. Вообще, от OpenAI все сильнее веет вайбом Apple, в худшем смысле: попытка создавать хайп и фетишизировать бренд, не создавая ничего нового и переупаковывая свою былую славу. Яблочная компания, блиставшая при Стиве Джобсе, сегодня стоит почти 3 триллиона долларов, но не может даже рекламу нормальную снять: для рекламы типа нового IPad копирует рекламу смартфона LG за 2008 год. Я думаю, что выход GPT-4o (кстати, “о” в названии — от слова “omni”, латинского префикса означающего “все”) все же можно считать очередной победой Альтмана. Хайп вокруг релиза доказывает культовый статус OpenAI, а суть релиза – акцент на голосовом общении с LLM – последовательно реализует видение Альтмана, который считает, что главная задача ИИ в ближайшем будущем — стать нашими всевидящими и всезнающими помощниками, которые всегда рядом. Меня конечно беспокоит потенциальная кошмарность такого его видения, особенно во всяких там тоталитарных режимах, но об этом поговорим как нибудь в другой раз. (На фото Мира Мурати, CTO OpenAI. Из презентации GPT-4o мне больше всего понравилось как нейросеть переводит ее итальянский на английский и обратно)
Показати все...

11👍 5 1🤔 1🤯 1
Один кубический миллиметр мозга человека содержит 57 000 клеток, 230 миллиметров кровеносных сосудов и около 150 миллионов синапсов. Это структура размером с маковое зернышко настолько сложна, что ее тремхерная модель со всеми взаимосвязями между нейронами, синапсами и клетками занимает 1.4 петабайта компьютерной памяти (1,4 млн гигабайт). Ученые из Лаборатории Лихтмана в Гарварде и инженеры из Google Research в начале мая создали такую трехмерную карту миллиметрового кусочка ткани из височной доли мозга человека. «С одной стороны, наш набор данных крошечный. Но он не кажется маленьким, потому что, открыв его, вы увидите, что это гигантский лес. Это очень маленький, но очень, очень, очень сложный лес», — говорит профессор Джефф Лихтман. Это всего 1/1 000 000 часть мозга человека и впечатляющий шаг на пути к созданию человеческого коннектома (полного описания структуры связей в нервной системе): доказательство, что создание коннектома в принципе возможно. «Мы хотим понять, как информация физически кодируется в нервной системе. С точки зрения фундаментальной науки, изучение того, как меняется коннектом по мере взросления нашего мозга, позволит решить фундаментальные вопросы развития мозга, обучения и памяти, а сравнение коннектомов разных людей покажет, насколько уникален рисунок нейронных связей в каждом человеческом мозге. С клинической точки зрения, коннектомика позволит нам тщательно изучить гипотезу о том, что многие заболевания головного мозга являются «коннектопатиями» — идею о том, что патология заключается в неправильном подключении нервных цепей», — пишет профессор Лихтман. Кора головного мозга человека состоит примерно из 16 млрд нейронов с более чем 160 триллионами синаптических связей. Каждый нейрон имеет синаптические связи с сотнями или даже тысячами других нейронов, и каждый отправляет выходные данные такому же количеству целевых нейронов, разбросанных на большом расстоянии. Так что установление полной схемы соединений даже одного типа нейронов в коре — огромная технологическая и вычислительная проблема. Прежде чем взяться за создание коннектома мозга человека, люди еще в 1992 году создали коннектом нервной системы круглого червя Caenorhabditis elegans: у него было всего 302 нейрона, но на создание его коннектома ушло целых 10 лет. Поэтому после изучения червя за мозг человека никто не брался почти 20 лет. Сейчас, благодаря ИИ и вычислительным мощностям, этот проект кажется более реальным, — но все же пока фантастическим. Когда я вижу такие цифры, мне совсем не трудно согласиться с утверждением, что человеческий мозг — самая сложная технология в известной нам вселенной. Но сразу возникает вопрос: как выглядит мозг существа, которое, вероятно, живет где-то в этой вселенной, — и которое сложнее нас на столько же порядков, насколько мы сложнее этого червя? Мозг и космос — самые важные области для изучения. И очень жаль, что и то, и другое мы рвемся изучать в первую очередь для того, чтобы милитаризовать их и победить друг друга. (На иллюстрации показан один нейрон (белый) с 5600 аксонами (синий), которые с ним соединены. Синапсы, обеспечивающие эти связи, показаны зеленым цветом. Тело клетки (центральное ядро) нейрона имеет диаметр около 14 микрометров)
Показати все...

18❤‍🔥 13👍 3🤩 1💔 1
В последнее время я много думаю о пропаганде: почти каждый день читаю статьи и исследования, слушаю лекции и семинары по этой теме. Моему увлечению пропагандой уже больше 10 лет, но в последние 2 года эта тема стала особенно актуальной, потому что меня — и всех вокруг — с утра до ночи омывают потоки грубой, злой и беспощадной пропаганды со всех сторон. Увлечение пропагандой начиналось с изучения трудов Уолтера Липпмана и Эдварда Бернейса, корифеев пропаганды в демократиях, и изучением нацистских и советских практик тоталитарной пропаганды. “Пропаганда, очевидно, работает, просто она не на те цели направлена», — думал я. Так что какое-то время я был озабочен «пропагандой осознанности» — идеей, что используя методы убеждения, разработанные на фоне двух мировых войн, можно склонить даже самых дремучих людей в сторону более осмысленной, вдумчивой жизни. Я, конечно, понимал, что пропаганда в основном работает на отупение, что ее монотонный бубнеж не способствует развитию интеллекта и мышления, которого я хотел добиться, да и в целом она тем лучше работает, чем менее человек образован и смышлен — и все же надеялся, что смогу что-то придумать. Наверное, я вдохновлялся фразой «пропаганда здорового образа жизни», которая вполне себе работала на отдельные категории людей, и думал, что так же можно «заставить людей быть осознанными». Начиная с 2022 года, я окончательно убедился, что пропаганда вообще не подходит для моих целей, потому что испытал на себе ее действие на максималках. Пропаганда не только рассчитана на “слабоумие” людей, но и чаще всего представляет собой набор очень грубых примитивных инструментов. О главном инструменте пропаганды я недавно писал: это остервенелое повторение, без которого не работает никакая пропаганда, — особенно в век соцсетей и рекомендательных алгоритмов. Окей, может тогда что-то интересное происходит на уровне послания, которое бесконечно повторяется, может, там есть пространство для маневра мысли? Тоже нет: ведь чем грубее и примитивнее послание, тем лучше — людям легче запомнить, проще повторить и не надо напрягаться чтобы вникнуть. Чуть интереснее становится на уровне поверхностной психологии, к которой эти повторяемые грубые послания постоянно обращаются: искусство пропагандистов в том, чтобы правильно уловить эмоционально-психологическое состояние народа и доминирующие в нем настроения, и постоянно долбить в эти состояния соответствующими дубовыми посланиями, чтобы какие-то настроения разжечь, а другие — наоборот, погасить. Проще всего повторять послание. Но ощутимо сложнее — сформулировать это послание. А труднее всего угадать настроение объекта и понять, до какой степени это настроение можно изменить своими посланиями. В любом случае, классическая пропаганда — это инструмент прошлого века, когда основными каналами ее распространения были газеты, кино, радио и телевидение. Это не значит, что пропаганда сегодня не эффективна – так же, как архаичные молоток и отвертка нужны при строительстве адронного коллайдера, пропаганда сегодня тоже нужна для строительства чего-то гораздо более совершенного и тотального, чем простенькие агитки, которыми недалекие политики все еще плюются в народы. Но об этом поговорим позже.
Показати все...
29👍 10🕊 7 2👌 2
Израильская армия разработала алгоритмическую систему «Лаванда», которая помогает военным с помощью ИИ и больших данных быстро и массово идентифицировать боевиков Хамас в Секторе Газа для их дальнейшего уничтожения в ходе операции «Железные мечи». В первые недели этой операции израильская армия очень сильно полагалась на Лаванду при определении целей для нанесения бомбовых ударов. За несколько недель операции, начавшейся после вторжения 7 октября, Лаванда выделила около 37 000 палестинцев из более чем 2 млн жителей Газы, в которых она распознала скрытых боевиков Хамас. Исходя из расследования журналистов израильского издания +972, основанного на 6 источниках из израильской разведки, Лаванда опирается на систему массовой слежки за палестинцами в секторе Газа и на основе собранных данных присваивает жителям рейтинг от 1 до 100: чем выше рейтинг, тем больше вероятность, что человек принадлежит к боевикам. Такое распознавание осуществляется с помощью ИИ, который натренировали на данных уже известных боевиков и научили распознавать похожие паттерны в других людях. К общим паттернам прибавляются очки за более конкретные нюансы: например, если человек состоит в одной Whatsapp-группе c известным боевиком, меняет телефон каждые несколько месяцев или часто переезжает. Визуальная информация, данные мобильного телефона, связи в соцсетях, информация с поля боя, фотографии и тд — все это идет в топку ИИ, который выписывает рекомендации к ликвидации. Это пока еще не полностью автономная ИИ-система, скорее, так называемый ИИ-кентавр — гибрид человека с ИИ — поэтому финальное решение для ликвидации маркированного Лавандой палестинца принимали живые военные. По словам источника издания, работавшего с Лавандой, на подтверждение корректности цели у него уходило совсем не много времени: «Я тратил по 20 секунд на каждую цель в тот период и подтверждал десятки целей каждый день. Как человек, я не привносил никакой добавочной ценности, кроме того, что ставил печать одобрения. Это экономило много времени». Расследование +972 утверждает, что Лаванда ошибается минимум в 10% целей, а приоритетное место для уничтожения помеченных целей — их дома, так что вместе с предполагаемыми хамасовцами под огонь часто попадали их семьи и соседи. Армия обороны Израиля утверждает, что значительная часть расследования — безосновательные утверждения, а другая часть — неправильно понятая правда. Я не спешу верить всем деталям этого расследования, так как понимаю, что это тоже часть информационной войны. Однако я не сомневаюсь, что системы вроде Лаванды (смесь нейросетей, больших данных, социального рейтинга и предиктивного полисинга) используются в зонах конфликтов и в том числе служат основанием для ликвидации людей — в данном случае, если это правда, поражает только масштаб. Ранее Израиль уже использовал аналогичную Лаванде систему «Евангелие», она специализировалась на определении хамасовских зданий, а не людей. Ее пользу объясняет бывший начальник Генштаба Израиля Авив Кохави: «Эта машина с помощью ИИ обрабатывает большой объем данных лучше и быстрее, чем любой человек, и превращает эти данные в цели для атак. В результате с момента активации машины во время Операции «Страж стен» [в Газе в 2021], она генерировала 100 новых целей каждый день. Понимаете, в прошлом бывали времена, когда мы могли сгенерировать только 50 целей за год. А тут вам машина, производящая 100 целей в день».
Показати все...

👀 10🤯 6😐 5🔥 4🫡 3❤‍🔥 2😨 2🤬 1
Люди определяют политическую ориентацию других с точностью около 55% — это слегка эффективнее, чем попытка определить, консерватор человек или либерал, подбросив монетку (50%). Но как показало исследование профессора Стэнфордского университета Михала Косински, ИИ вычисляет принадлежность человека к консервативным или либеральным взглядам гораздо точнее: в выборке из 1 млн фотографий людей нейросети определили их политориентацию с более чем 70% точностью. Результаты исследования Косински подтвердились двумя экспериментами других ученых. В самом свежем варианте этого эксперимента Косински доказывает, что алгоритмы распознавания лиц могут угадать политическую ориентацию человека даже по фотографиям с нейтральным выражением лица (как на паспорт), без растительности на лице, пирсинга, тату, украшений, макияжа и любых других форм саморепрезентации. Другая серия экспериментов с использованием фотографий из профиля людей (то есть содержащих информацию о саморепрезентации) показала, что нейросети с высокой вероятностью умеют определять также и их сексуальную ориентацию. Такое ясновидение ИИ возможно за счет того, что он умеет распознавать паттерны значительно лучше, чем это получается у людей. Если мы посмотрим на фотографии десяти рандомных геев или консервативно настроенных женщин, мы можем не заметить между ними ничего общего — каждый и каждая могут оказаться непохожими друг на друга уникальными персонажами. Но когда ИИ смотрит на десять тысяч фотографий этих категорий мужчин и женщин, он, в отличие от человека, научается определять закономерности, паттерны, по которым затем может распознать гея или консервативную женщину на изображениях не из выборки. Безусловно, эксперименты с распознаванием сексуальных и политических предпочтений человека по его лицу можно подвергать бесконечной критике. В глаза бросается не 100% точность таких ИИ-дознавателей: кроме несовершенства самой технологии, проблема в том, что сексуальная ориентация, а тем более политическая, может измениться под воздействием обстоятельств жизни или по выбору человека. Правозащитник вправе сказать, что это антигуманная практика, нарушающая права человека на личную жизнь — в конце концов, лицо у нас одно, и если оно рассказывает больше, чем человек хочет рассказать, то это большая проблема в обществе, где ценят приватность. Но все эти неточности и несправедливости — не проблема в обществе авторитарном, тоталитарном и в обществе надзора. Однополый секс считается преступлением в более чем 60 странах, и имплементация алгоритмов, распознающих сексуальную ориентацию по фотографии человека может привести к массовым репрессиям невиданных масштабов. Авторитарные режимы, вооруженные алгоритмами, распознающими политическую оппозицию и диссидентов по лицу, быстро превратятся в стерильные тоталитарные режимы без тени инакомыслия. Неточность алгоритмов, распознающих неугодные слои населения, не будет пугать цифровых автократов: ИИ все равно точнее человека определяет неугодного по лицу, а невинные жертвы никогда не останавливали тиранов — «лес рубят, щепки летят». Авторитарный режим стремится к контролю внешних проявлений гражданина, а тоталитарный хочет контролировать и его чувства. Чем совершеннее будут нейросети тиранов, чем лучше они будут судить о внутреннем мире человека по его лицу, тем меньше автократий и больше тоталитарных режимов мы будем наблюдать. Выход из этого только один: автократии и тирании должны исчезнуть до того момента, когда технологии сделают психику человека полностью прозрачной.
Показати все...
Facial recognition technology can expose political orientation from naturalistic facial images

Scientific Reports - Facial recognition technology can expose political orientation from naturalistic facial images

💯 7🤔 6👍 4 4🙈 4 3😱 3🔥 1