Mlp edge что это
Мы в Heads and Hands разрабатываем мобильные экосистемы и помогаем создавать продукты, которые полюбят пользователи. Мы постоянно мониторим свежие исследования и материалы, чтобы быть в курсе трендов в создании продуктов, дизайне, разработке, и делимся ими с нашими клиентами и сообществом.
В этот раз перевели статью Карлоса Гонзалеза, CEO в Product School, о том, что такое MLP и чем такая версия продукта отличается от MVP.
Пользователям сложнее угодить, чем раньше. Дизайн продукта взлетел до небес. Клиентам мало удовлетворения их потребностей, они хотят быть в восторге от продукта.Что это значит для менеджеров по продукту?
Во-первых, необходимо чувствовать себя комфортно с командой дизайна и работать над созданием прочных отношений с ними. А затем переосмыслить то, что вы вкладываете в понятие минимально жизнеспособного продукта (MVP).
Продукт должен быть привлекательным для пользователя. И так появляется новое понятие — минимально привлекательный продукт (MLP).
Эрик Рис популяризировал идею MVP и описал ее так: «минимально жизнеспособный продукт — это версия продукта, которая позволяет собрать максимальное количество проверенных знаний о клиентах с наименьшими усилиями».
Некоторые компании предпочитают использовать MVP в качестве закрытой бета-версии для тестирования, другие стартапы фактически запускают свой MVP в качестве первой версии продукта.
🚀 MVP или минимально жизнеспособный продукт — это версия вашего продукта, которую вы впервые запускаете для своих клиентов. Он имеет минимальное количество функций для решения проблем потребителей и чаще всего используется в качестве инструмента тестирования.
❤ MLP или минимально привлекательный продукт — похож на MVP, но с более продуманным пользовательским интерфейсом и опытом пользователя. Помогает не только решать проблемы, но и приносит удовольствие.
💰 MMP или минимальный продающий продукт — это версия вашего MVP (или MLP), которую вы будете продвигать на рынке.
Минимально привлекательный продукт не только решает проблемы клиентов, но и восхищает их.
Цзяона «JZ» Чжан, вице-президент по продукту в Webflow, а ранее в Airbnb, WeWork и Dropbox, так комментирует эволюцию MVP: «Идея минимально жизнеспособного продукта привлекала, так как позволяла быстро и дешево вывести продукт на рынок. Но все более жесткая конкуренция усложняет выпуск MVP. Если стартап действительно хочет выделиться, ему нужно создавать минимально привлекательный продукт».
Давайте представим, что вы пришли к другу в гости. Он спрашивает, хотите ли вы кофе. И да, именно его вам не хватает сейчас. Друг приносит вам черный растворимый кофе.
Это то, что вы просили? Да.
В напитке есть кофеин, который взбодрит вас? Возможно.
Порадует ли вас такой кофе? Не факт.
Если бы ваш друг спросил не только о том, чего вы хотите, но и что вам нравится, то мог бы порадовать вас чашкой свежесваренного кофе.
Исследование пользователей при создании MLP включает в себя выяснение их предпочтений. Это может быть эстетичный дизайн, инновационный пользовательский опыт или интеграция с другими инструментами.
Для успеха продукта жизненно важно заработать любовь пользователя, именно это поможет сделать его запоминающимся и даст преимущество над конкурентами.
Правила построения MLP очень похожи на создание продукта обычным способом. Но если вы никогда не делали этого раньше, следует сосредоточиться на нескольких ключевых моментах.
Ваш продукт должен быть не только симпатичным, но и все-таки решать проблемы пользователей. У всего в продукте должна быть цель. Вернемся к кофе: если дополнить его взбитыми сливками и шоколадной крошкой — то он уже не будет выполнять роль «просто кофе».
Менеджер по продукту несет ответственность за настройку своих команд на одну общую целью. UX, продажи, маркетинг, дизайн, технологии — все должно быть направлено на создание продукта, который полюбят пользователи.
Не забудьте про M (минимальный) в MLP. Хоть вы и сосредотачиваетесь на том, чтобы впечатлить пользователей, помните, что при этом нужно оставаться гибкими. Выберите минимальный набор функций, необходимый для решения проблем пользователей, и реализуйте их максимально приятными для них.
Не думайте, что привлекательный продукт должен дать пользователям все, чего они только захотят. Это не только потратит драгоценное время, но и будет повторяться раз за разом.
Существует баланс между недостаточным и чрезмерным инвестированием в MLP. Из-за недоинвестирования вы рискуете потерять потенциальных клиентов или не выделиться из толпы. При чрезмерном — реализовать слишком большое количество функций, на которые вы потратите много времени и ресурсов.
Поговорите с первыми пользователями и выясните не только то, как продукт решает задачи, но и как воспринимается ими. В опросах пользователей предлагайте открытые вопросы, которые позволят выразить мысли развернуто, а не просто ответить «да / нет» или выставить флажки.
Ваш MLP — это не окончательный вариант продукта. Как и MVP, это ценный инструмент обучения, который поможет узнать, чего хотят ваши пользователи. После сбора качественной и количественной обратной связи планируйте следующие шаги для развития продукта.
Ваш MLP — это первый шаг к созданию продукта, в который влюбятся пользователи.
Мы решили пойти путем запуска MLP на своем проекте Baristika по доставке specialty-кофе в бизнес-центрах. Мы не только решили проблему офисных работников, которые не могут найти качественный кофе поблизости, но и создали wow-эффект от продукта. Для этого сосредоточились на качестве кофе, подачи, скорости доставки, платформе для заказа. При этом ограничили ассортимент классическими напитками, разработали только веб-интерфейс для заказа и сделали один способ оплаты — картой онлайн.
Закупили зерна категории specialty, поставили дорогую кофемашину, процесс и технологию приготовления кофе ставил бывший технический директор сети кофеен DoubleB. Все как в лучшей кофейне. К заказу клали тростниковый сахар, а не обычный, и добавляли печенье в качестве комплимента — так вызывали положительные эмоции у клиентов. Забрендировали всю продукцию, вплоть до пакетиков для сахара, чтобы нас точно запомнили. Казалось бы, мелочи, но клиенты их отмечали в комментариях. Они могли сварить кофе в офисной машине или купить в автомате, но здесь сыграло роль то, что курьер приносил вкусный кофе с крутой подачей прямо к рабочему столу и желал хорошего дня. Это и есть lovable product.
Клиентам нравился сервис, мы это поняли по отзывам и рейтингу, который в среднем составил 4,7 из 5 и высокому retention — по три заказа в неделю на пользователя.
В то же время мы пробовали запуститься с меньшим упором на MLP, в другом бизнес-центре по модели MVP. Качество кофе было прежним, использовали аналогичное зерно, доставка тоже занимала 15 минут, но не было комплиментов к напиткам, брендированных чашек, сахара, курьеры не носили форму. Даже сделали отдельный бренд для теста. Результаты отличались в разы: 150 заказов в день в MLP-версии и 12-20 заказов в MVP.
Так мы поняли, что доставка привлекала не столько решением задачи «попить качественный кофе», а именно своей подачей. Клиенты полюбили продукт за эмоции, которые они получали при заказе.
Только после создания MLP, мы добавили в доставку дополняющие продукты (сэндвичи, сладости), под их заказ адаптировали сайт, корзину и сделали больше методов оплаты.
mlp песочница mlp anthro mlp art сделай сам mlp rly-chan Valri707 . my little pony фэндомы
Настоящее время
Субкультура насчитывает уже 8 лет и её популярность тает на глазах. Но всё равно остается одним из самых многочисленных фандомов в мире. До сих пор существуют чаты, куда брони скидывают новый контент и мемы про пони. Проводятся фестивали, правда уже не такие большие (РуБрониКона 2019 не будет).
Олдфаги продолжают говорить, что MLP уже не тот, что субкультура и сериал превратилась в жалкую пародию и уже не так интересно устраивать холивары как 5 лет назад. Однако, новичков это не останавливает и потихоньку бронисообщество пополняется новыми адептами.
В предстоящем фильме Эквестрия, служащая домом для пони, утратила свою магию. Злобный богач Донат Трампет (Doughnut Trumpet) обманом присвоил себе Элементы Гармонии и провозгласил себя принцессой (шучу))) Дружба и Гармония заменены паранойей и недоверием, а пони теперь живут, разделившись на виды.
Этот синопсис выходящего осенью фильма стал первой официальной информацией о новом — пятом — поколении франшизы My Little Pony. Существующая с 1981 года, серия игрушек-пони для суровых мужчин успешно пережила уже четыре итерации, из которых самой знаменитой стала четвертая. Причем в первую очередь — за счет своей анимационной составляющей, традиционно воспринимавшейся просто как способ прорекламировать игрушки.. Вышедший на экраны в 2010 году сериал My Little Pony: Friendship is Magic не просто сделал франшизу мега-популярной, но и стал уникальным культурным явлением, в том числе породив субкультуру брони. Ну, и заодно обеспечил компании Hasbro продажи игрушек на целое десятилетие.
Однако, все хорошее когда-либо заканчивается, и в 2020 году, сериал MLP:FIM был завершен на своем 9-ом сезоне. С ним официально завершилось и 4-е поколение пони. Никто, впрочем, не сомневался, что с учетом его успеха и могучей фанбазы — охватывающей в буквальном смысле миллионы людей самых разных поколений по всему миру — пятое поколение не заставит себя долго ждать.
И вот, после множества слухов, утечек идей и скетчей, и напряженных фанатских спекуляций, Hasbro выложило модели персонажей и синопсис фильма, которым собирается открыть 5-е поколение My Little Pony.
Итак, что можно сказать сразу?
1) Основной идеей при разработке дизайна персонажей было максимальное соответствие будущим игрушкам. Hasbro, будучи одним из основных производителей игрушек в США, долгие годы билось над проблемой неизбежных различий между мультипликационными образами персонажей и их анимационными воплощениями:
Как ни старайся, но передать всю милоту анимационного образа фигурка не в состоянии.
В G5 MLP проблему, по-видимому, решили радикально. Все анимационные персонажи изначально выглядят как их игрушки. Для этого по-максимуму привлекли все возможности современной 3D-графики, однако результат. внушает некоторые опасения. Персонажи, созданные, чтобы напоминать пластмассовые фигурки, в итоге и выглядят пластмассово — гладко и отполированно, а не пушисто и мимимишно. Выражения же мордочек порой уезжают в поняшный аналог Uncanny Valley.
2) Создатели сериала по-видимому не вполне уверены в надежности ставки на перемены. Поэтому сериал не просто привязан к поколению G4 как отдаленный сиквел в той же самой вселенной (о чем было объявлено несколько раньше), но и буквально напичкан отсылками к предыдущему поколению. Причем на совершенно уже неприличном уровне:
У G5 пони есть фигурки всех главных персонажей G4 пони, плакаты G4 пони, значки G4 пони, прочий хабар из G4. Я лично подозреваю, что персонаж будет прописан как фанат G4 пони, упоенно собирающий весь связанный с ними мерчендайз и постоянно припоминающий отсылки к старому сериалу.
В определенной степени, разумеется, такой подход можно понять. Переплюнуть гениальное творение трудно — а MLP:FIM был, вне всякого сомнения, гениальным. Опять же, существует огромная «старая» фанбаза, которую надо привлечь и удержать (что, как наглядно показывает опыт диснеевских сиквелов «Звездных Войн» очень даже непросто), тем более, что времени между G4 и G5 прошло явно недостаточно, чтобы сформировать «разрыв поколений». В конце концов, главный источник дохода для Hasbro — это продажи игрушек. И все же. такой подход выдает также неуверенность в успехе и подготовку заранее путей к отступлению.
3) Сериал грозит быть просто набитым актуальной политикой и «повесточкой». Упоминание «заменый дружбы и гармонии паранойей и недоверием», избыточное внимание к расовой политике, «возмутительные теории заговора». И моя шутка про Доната Трампета рискует стать пророческой.
Полагаю, что Hasbro предпочтет не рисковать, и ввести все «подобающие» нынешней политической коньюктуре мотивы — нежели столкнуться с «культурой отмены» и тому подобными социополитическими «радостями». Само по себе это, вполне возможно, и неплохо: в американской анимации уже вполне успешно научились вставлять актуальные идеи так, чтобы они не выглядели чужеродными в сюжете («Voltron: Legendary Defender», «Steven Universe», «She-Ra and the Princesses of Power»). Но описание сериала внушает опасения, что Hasbro рискует перегнуть палку.
Подводя итог — очевидно, что Hasbro вложило значительные усилия в то, чтобы поколение G5 оказалось бы не хуже знаменитого предшественника. Сможет ли оно его превзойти — другой вопрос. Известное на данный момент, говорит о том, что проект амбициозен и хорошо продуман, но демонстрирует определенные. проблемные места, в том числе и от неуверенности Hasbro в собственных возможностях.
Брони — фэндом MLP
Брони — это не просто любители сериала, это действительно сообщество, у которых есть общие интересы, взгляды и идеалы. У них есть правила, которым они следуют внутри сообщества (целый свод) и есть те, кто их нарушает. Они проводят собственные фестивали и производят огромное количество фанатской атрибутики. Даже если это движение когда-нибудь и затухнет (как это происходит сейчас), то розовых коней мы будем рисовать еще очень долго.
Участники РуБрониКона 2014
1.17.1. Многослойный персептрон
Многослойный персептрон (MLP) — это алгоритм обучения с учителем, который изучает функцию $f(\cdot): R^m \rightarrow R^o$ обучением на наборе данных, где m — количество измерений для ввода и o- количество размеров для вывода. Учитывая набор функций $X = $ и цель $y$, он может изучить аппроксиматор нелинейной функции для классификации или регрессии. Он отличается от логистической регрессии тем, что между входным и выходным слоями может быть один или несколько нелинейных слоев, называемых скрытыми слоями. На рисунке 1 показан MLP с одним скрытым слоем со скалярным выходом.
Рисунок 1: Один скрытый слой MLP.
Самый левый слой, известный как входной, состоит из набора нейронов $$ представляющие входные функции. Каждый нейрон в скрытом слое преобразует значения из предыдущего слоя с взвешенным линейным суммированием $w_1x_1 + w_2x_2 + … + w_mx_m$, за которой следует нелинейная функция активации $g(\cdot):R \rightarrow R$ — как функция гиперболического загара. Выходной слой получает значения из последнего скрытого слоя и преобразует их в выходные значения.
Модуль содержит публичные атрибуты coefs_ и intercepts_ . coefs_ список весовых матриц, где весовая матрица с индексомi представляет собой веса между слоями i и слой $i+1$. intercepts_ список векторов смещения, где вектор с индексом $i$ представляет значения смещения, добавленные к слою $i+1$.
Преимущества многослойного перцептрона:
- Возможность изучать нелинейные модели.
- Возможность изучения моделей в режиме реального времени (онлайн-обучение) с использованием partial_fit .
К недостаткам многослойного персептрона (MLP) можно отнести:
- MLP со скрытыми слоями имеют невыпуклую функцию потерь, когда существует более одного локального минимума. Поэтому разные инициализации случайных весов могут привести к разной точности проверки.
- MLP требует настройки ряда гиперпараметров, таких как количество скрытых нейронов, слоев и итераций.
- MLP чувствителен к масштабированию функций.
См. Раздел «Советы по практическому использованию», в котором рассматриваются некоторые из этих недостатков.
Паладины против клоперов
Для любителей холиваров оставляем здесь пару ссылок, где происходит борьба добра со злом. А все потому, что многолетняя пони история породила в своих рядах позеров и трушных поней. А также тех, кто за чистоту фрэндшипа.
- Паладины — брони, которые предпочитают сериал в его классическом проявлении. Моралфаги от брони сообщества. Никакого дарка, шиппинга и так далее. Любой отход
от сценария вызывает негодование и непонимание. - Дарки — брони, которые любят контент с расчлененкой, депресняком и кровью. Все в этом духе.
- Клоперы — любители R34 (Правило 34 — «Про всё есть порно. Исключений нет»)
- Феечки — дети, целевая аудитория сериала, которые просто смотрят мультик и пояснить за субкультуру не смогут. Любят EG, бризи, винкс и все, что блестит.
- Нейтралы — просто фанаты, которые любят MLP, делают контент и крафт, читают фанфики, сидят в понигруппах.
«The Brony Study»
С 2012 года группа ученых изучает субкультуру броней под кодовым названием «The Brony Study». На их сайте вроде как анонсировано исследование и на 2019 год, но раздел пуст. Как и предыдущие годы. Последние результаты были представлены в 2016 году.
В исследовании приняло участие около 1000 фанатов, из них 88% были мужчинами.
Эдвардс (один из группы исследователей) отметил, что брони как субкультура «предоставила возможность изучать феномен с самого начала», то есть от зарождения. Билл Эллис из университета Пэн Стэйт сравнил субкультуру Брони с культурой отаку, фанатов аниме. Он завявил, что отаку, как и брони, «не имеют отклонений в психике и развитии», а всего лишь «не являются большинством» в выборе своих интересов.
Сёстры тоже братья
Они называют себя брони (кто первый это придумал, мы не нашли, возможно, это были сами владельцы франшизы — Hasbro). Bro + Pony = Brony. Девочки тоже называют себя брони. Некоторые пытались называть их пегасистер (pegasister), но название не прижилось. Вообще, вокруг темы «мальчики-девочки» очень много разговоров. Хотя бы потому, что на пике своей популярности в движении было 80% мужского пола. Мужчины смотрят мультики для девочек, чем вам не вызов обществу? Обратной силы не имеет.
1.17.4. Регуляризация
Оба MLPRegressor и MLPClassifier используют параметр alpha для термина регуляризации (L2-регуляризация), который помогает избежать переобучения, штрафуя веса большими величинами. Следующий график отображает изменяющуюся функцию решения со значением альфа.
См. Примеры ниже для получения дополнительной информации.
1.17.6. Сложность
Предположим, есть $n$ обучающие образцы, $m$ Особенности, $k$ скрытые слои, каждый из которых содержит $h$ нейроны — для простоты и $o$ выходные нейроны. Временная сложность обратного распространения ошибки равна $O(n\cdot m \cdot h^k \cdot o \cdot i)$, где $i$- количество итераций. Поскольку обратное распространение имеет высокую временную сложность, рекомендуется начинать с меньшего количества скрытых нейронов и нескольких скрытых слоев для обучения.
Как становятся брони
По ссылке вы найдете увлекательные истории подростков о том, как они стали брони. В основном, это что-то вроде «друг показал», «дети смотрели и я тоже присел». Кто-то попал в брони через «Карусель» — канал на ТВ, где крутили мультик. Кто-то попал на обзор на ютубе, кто-то попал на аниме-фестиваль и проникся культурой поней и т.д.
Словарь броняши
- mlp mane 6 — основные шесть персонажей my little pony
- mlp royal — одни из основных персонажей, представители королевского двора
- mlp antagonist (злодеи) — ряд персонажей, которые являются чуть ли не основным двигателем сюжета mlp.
- mlp background ponies (персонажи второго плана)
- mlp OC (Original Character или Оригинальный персонаж) — персонажи mlp, которые придуманы и нарисованы любым из участников фэндома. Как правило создавая OC,
автор тем самым переносит себя в мир mlp. - mlp antro (Антро) — это частичное очеловечивание персонажа или присваивание ему человеческих качеств.
- mlp crossover (кроссовер) — соединение двух или более вселенных воедино. Ярким примером кроссовера является Доктор Хувз.
- mlp military (милитрализм) — добавление во вселенную фэндома атрибутов войны
- mlp ponification (понификация) — превращение любого стороннего персонажа в пони.
- mlp humanization (хуманизация) — превращение персонажей из пони фэндома в человека.
- mlp dark (дарк) — темная сторона фендома.
- mlp shipping — категория которая предполагает романтичные отношения между персонажами (не R34).
- mlp rule 63 (правило 63) — одно из правил фэндомов, согласно которому каждый персонаж имеет свою копию, только другого пола
- mlp rule 34 (правило 34) — правило фэндома , согласно которому фэндом имеет право создавать эротические и порнографические арты с тематическими персонажами.
1.17.8. Советы по практическому использованию
- Многослойный персептрон чувствителен к масштабированию функций, поэтому настоятельно рекомендуется масштабировать ваши данные. Например, масштабируйте каждый атрибут во входном векторе X до [0, 1] или [-1, +1] или стандартизируйте его, чтобы он имел среднее значение 0 и дисперсию 1. Обратите внимание, что вы должны применить такое же масштабирование к набору тестов для значимые результаты. Можно использовать StandardScaler для стандартизации.
- Альтернативный и рекомендуемый подход — использовать StandardScaler в Pipeline
- Нахождение разумного параметра регуляризации $\alpha$ лучше всего использовать GridSearchCV , обычно в диапазоне 10.0 ** -np.arange(1, 7)
- Эмпирическим L-BFGS путем мы заметили, что это происходит быстрее и с лучшими решениями на небольших наборах данных. Однако для относительно больших наборов данных Adam это очень надежно. Обычно он быстро сходится и дает довольно хорошую производительность. SGD с импульсом или импульсом нестерова, с другой стороны, может работать лучше, чем эти два алгоритма, если скорость обучения настроена правильно.
mlp OC mlp art сделай сам mlp mlp traditional art mlp носочки mlp хуманизация mlp anthro . my little pony фэндомы
сделай сам mlp Izzy Moonbow mlp g5 mlp traditional art mlp art RSD500 . my little pony фэндомы
mlp art сделай сам mlp mlp OC mlp anthro mlp милитаризм . my little pony фэндомы
1.17.2. Классификация
Класс MLPClassifier реализует алгоритм многослойного перцептрона (MLP), который обучается с использованием обратного распространения .
MLP обучается на двух массивах: массив X размера (n_samples, n_features), который содержит обучающие образцы, представленные как векторы признаков с плавающей запятой; и массив y размера (n_samples,), который содержит целевые значения (метки классов) для обучающих выборок:
После подгонки (обучения) модель может предсказывать метки для новых образцов:
MLP может подгонять нелинейную модель к обучающим данным. clf.coefs_ содержит весовые матрицы, составляющие параметры модели:
В настоящее время MLPClassifier поддерживает только функцию потерь кросс-энтропии, которая позволяет оценивать вероятность путем запуска predict_proba метода.
MLP тренирует с использованием обратного распространения ошибки. Точнее, он тренируется с использованием некоторой формы градиентного спуска, а градиенты вычисляются с использованием обратного распространения. Для классификации он минимизирует функцию потерь кросс-энтропии, давая вектор оценок вероятности $P(y|x)$ за образец $x$:
MLPClassifier поддерживает мультиклассовую классификацию, применяя Softmax в качестве выходной функции.
Кроме того, модель поддерживает классификацию с несколькими метками, в которой образец может принадлежать более чем одному классу. Для каждого класса необработанные выходные данные проходят через логистическую функцию. Значения, большие или равные 0.5 , округляются до 1 , в противном случае — до 0 . Для прогнозируемых выходных данных выборки индексы, в которых указано значение, 1 представляют назначенные классы этой выборки:
См. Примеры ниже и строку документации MLPClassifier.fit для получения дополнительной информации.
Бронифесты в России
В Москве проходит ежегодный конвент RuBronyCon, а в Санкт-Петербурге Пониребрик, СибБрониКон в Новосибирске. БрониУКон в Киеве. В других городах также проходят конвенты, фестивали, сходы и встречи.
Пониребрик 2019
РуБрониКон — самое массовое мероприятие для российских поклонников мультсериала My Little Pony. Традиционно оно включает в себя косплей-шоу, ярмарку с произведениями умелых крафтеров и художников, мастер-классы, панельные дискуссии, презентации, и концерты от российских брони-групп.
На самом деле, если хорошо поискать, то окажется, что брони сходки есть (или были) практически в каждом городе. Вот, например, участники вечеринки Fallout Equestria Party 2019
1.17.3. Регрессия
Класс MLPRegressor реализует многослойный перцептрон (MLP), который обучается с использованием обратного распространения без функции активации в выходном слое, что также можно рассматривать как использование функции идентификации в качестве функции активации. Следовательно, он использует квадратную ошибку как функцию потерь, а на выходе представляет собой набор непрерывных значений.
MLPRegressor также поддерживает регрессию с несколькими выходами, при которой в выборке может быть более одной цели.
Понификация
Брони производят просто горы контента и крафта. Начиная от банальных картинок на deviantArt или соцсеятх до плюшевых игрушек и керамических статуэток. Просто напишите в поиске «бронипони».
Видео, основанное на материалах сериала, пародирующее его, а также музыкальные ролики, регулярно появляются на YouTube. Вообще брони стараются понифицировать абсолютно все. Вот, например «Gangnam Style» в стиле брони, классика жанра.
Фанаты создали огромное количество фанфиков. «Fallout: Equestria» является одним из самых длинных фанфиков и основан на серии игр Fallout. Также фанаты создают игры и модификации к ним. Примерами служат файтинг My Little Pony: Fighting Is Magic, а также модификации таких известных игр, как Team Fortress и The Elder Scrolls.
Если у вас ОЧЕНЬ много времени, рекомендуем поиграть в Поникликер 😉
Также броняши пишут и делают собственную музыку. Ознакомиться можно, например, на понирадио. А еще у них есть собственные бронипони рок группы. Например, BroniKoni.
1.17.5. Алгоритмы
MLP тренирует с использованием стохастического градиентного спуска , Адама или L-BFGS . Стохастический градиентный спуск (SGD) обновляет параметры, используя градиент функции потерь по отношению к параметру, который требует адаптации, т. Е.
$$w \leftarrow w — \eta (\alpha \frac<\partial R(w)> <\partial w>+ \frac<\partial Loss><\partial w>)$$
где $\eta$ — это скорость обучения, которая контролирует размер шага при поиске в пространстве параметров. $Loss$ — функция потерь, используемая для сети.
Более подробную информацию можно найти в документации SGD.
Adam похож на SGD в том смысле, что это стохастический оптимизатор, но он может автоматически регулировать количество для обновления параметров на основе адаптивных оценок моментов более низкого порядка.
С SGD или Adam обучение поддерживает онлайн и мини-пакетное обучение.
L-BFGS — это решающая программа, которая аппроксимирует матрицу Гессе, которая представляет собой частную производную второго порядка функции. Кроме того, он аппроксимирует обратную матрицу Гессе для обновления параметров. Реализация использует версию L-BFGS Scipy .
Если выбран решатель «L-BFGS», обучение не поддерживает ни онлайн, ни мини-пакетное обучение.
Броникон
Фанаты организовывают местные встречи и небольшие фестивали, такие как BronyCon, Everfree Northwest, Equestria LA . Первый фестиваль в Нью-Йорке (2011) привлек внимание всего ста человек, уже на третьем, прошедшем в Январе 2012, было восемьсот человек. А четвёртый Броникон расширился до двухдневного мероприятия с более чем четырёхтысячной аудиторией.
На заключительных торжествах БрониКона 2018 было официально объявлено, что БрониКон 2019 станет последним из-за падения активности в фендоме.
Благотворительность и сбор средств
В истории развития фандома есть немало примеров благотворительности.
- Например, фонд «Спасибо брони» собирал средства на рекламу сериала, а излишки потратил на игрушки для детей военнослужащих США.
- Группа под названием «Bronies for Good» организовала сдачу крови и в 2012 году собрала около 60 000 долларов для таких благотворительных организаций, как ассоциация по борьбе с раком у детей. Группа пока еще функционирует.
- Документальный фильм «Брони: неожиданно взрослые поклонники My Little Pony» получил в несколько раз больше денежных средств, чем было запрошено на Кикстартере.
Отношения с Хасбро
В рядах фанатов MLP распространено мнение, что Хасбро (владелец франшизы) интересует только маркетинг и продажи. И что они сами не ожидали, что смогут так подняться за счет 20-летних мужиков. Поэтому будущее Эквестрии только за фанатами и фанфиками.
Также фанаты отмечают, что сначала Хасбро поощряла активность броней на ютубе а затем активно взялось за авторское право. Поэтому сегодня утрачено огромное количество артов, PMV (pony music video) из-за авторских прав. Отчасти, многие забросили фандом, потому что стало невозможно творить. Ныне остались разве что Доктор, да Аноны. А их было великое множество.
4chan и Табун — место где пасутся брони
Русскоязычное общество появилось в 2011 году. Сначала появились первые обзоры на youtube, начали создаваться первые треды на бордах и проводились вайпы картинками с пони. Начали выходить первые любительские переводы, чуть позже подтянулся ТВ-канал «Карусель».
Русскоязычные брони обитают практически на всех сетевых сообществах. Самый крупный брони сайт рунета EveryPony, разделы на имиджбордах, группы ВК, джойреактор и т.д.
Граффити «Пони, пони по-всюду»
Развитию популярности движения во многом поспособствовал могучий форум 4chan. Где начали появляться первые авторские зарисовки розовых «поней». Там же было и первое место столкновения новоиспеченных броней и понихейтеров, которое быстро прикрыли из-за непрекращающихся споров.
Однако, вскоре для любителей поней выделили целую отдельную «доску» и движение начало разрастаться и создавать собственные ресурсы. Брони разбежались по всевозможным группам в соцсетях.
1.17.9. Больше контроля с warm_start
Если вы хотите получить больше контроля над критериев остановки или скорости обучения в СГД, или хотите сделать дополнительный мониторинг, используя warm_start=True и max_iter=1 и переборе сами могут быть полезны:
-
Рамелхарт, Дэвид Э., Джеффри Э. Хинтон и Рональд Дж. Уильямс. Л. Ботто — Интернет-сайт, 2010. Эндрю Нг, Цзицюань Нгиам, Чуан Ю Фу, Ифань Май, Кэролайн Суен — веб-сайт, 2011 г. Ю. ЛеКун, Л. Ботту, Г. Орр, К. Мюллер — В нейронных сетях: уловки торговли 1998. Кингма, Дидерик и Джимми Ба. Препринт arXiv arXiv: 1412.6980 (2014).
Речь ниже пойдет о сообществе фанатов, которое сформировалось вокруг мультсериала для маленьких 5-и летних девочек «My Little Pony». Этот мультсериал очень полюбился молодым людям в районе двадцати лет, и, как заявляют сами участники фандома — брони, ничего странного в этом нет, потому что «дружба — это чудо».
Антро или хумка?
Здравствуйте, дорогие друзья!
В эфире самая антропонизационная среди хуманизационных, и самая хуманизационная среди антропонизационных рубрик МЛПреактора, под названием э-э-эксперименты!
И сегодня мы столкнём лбами два подхода по приданию пони персонажу антропоморфности: хуманизацию и антропони.
Итак, некоторые из вас, кто следит за моими публикациями больше года, видали, наверное, такого невероятно пушистого и безумно ушастого персонажа, как Голдэн ОтомВинд, а для тех, кто не видел, смотрите комментарии. Так вот, недавно встал вопрос об изображении персонажа в отличном от пони виде, и тут сразу на ум пришло два варианта: антропони или хуманизация.
У обоих подходов есть свои степени антропоморфности или звероподобности: например у антропони, при одной и той же поняшьей голове и окрасе шёрстки тела, могут быть как и человеческие ноги, так и животные; а так же и у хумки могут быть некоторые звериные признаки, по типу тех же поняшных ушек, хвоста или рога/крыльев.
И мною были избраны, как мне казалось, два наиболее уместных варианта: полное антро с поняшными ногами и частичная хуманизация с ушками, хвостом и рогом. А результаты работы вы можете видеть ниже. Притом оба варианта в одном и том же росте, с одной и той же высотой голов, менялись лишь пропорции частей ног и ширина головы. Естественно антропонька наличествует, в сравнении с хумкой, пушистой шёрсткой и кьютимаркой.
А вот два этих подхода я и предлагаю вам сравнить: какой из них получился у меня более хорошо — антро или хумка? На этот вопрос вы можете ответить в голосовалке. И для любителей подробностей экстра вопрос: какие достоинства или недостатки нашлись у каждого из подходов?
Впрочем, я могу с огромной уверенностью предугадать исход этого сравнения.
И-и-и. конечно же выиграет антрушка! Почему? Ну тут можно увидеть сразу несколько сильных плюсов у антро:
1.) Более высокая детализация персонажа, за счёт шёрстки, кьютимарки, цвета и иного;
2.) Высокая эмоциональность. Согласитесь же, отразить гримасу радости или ужаса на голове с огромными глазюками и "резиновым" ртом без чётко прорисованных губ куда легче, чем на маленьком человеческом лице, да?
3.) Близость к оригинальному образу. Что меняется в антро? Да только тело и руки. Голова, расцветка и ноги остаются практически теми же, что и оригинального персонажа. А при хуманизации? В жёстких случаях хуманизации от оригинала может остаться только причёска, цвет глаз и типаж фигуры, ну или максимум хвост, ушки и рог/крылья. Первый вариант всё равно ведь будет ближе к оригиналу, ведь так?
4.) Аспект восприятия. Поверьте, мне доводилось публиковать на том же МЛПреакторе хуманизации своих ОСок отдельно от пони. Мало того, что ОСы сами по себе, даже в пони варианте, мало кого интересуют, а тут эти же ОСы, да ещё и в хум виде! А антро-то броням ближе, ибо вот, видно же, что тут что-то от пони, хоть даже это и ОС! Так кому там нужны эти ваши хуманизации?
Ну и бонусный плюс, не заметный вам, зрителям, но со стороны творца существенный: антро на порядок проще в освоении! Ну что это — рисовка поняшной головы? Кружок, ещё два кружка, становящиеся глазами, состоящий из пары линий и точек нос и той же простоты ушки. Копытца для ног (задних для пони) рисовать проще, чем босые стопы человеческих ног, ведь вместо пяти мелких пальцев один большой (копыто). Тело? Ну тут привычную пару кружков грудины и таза нужно лишь заменить на усечённые и приплюснутые с боков пирамиды — не так уж и сложно (если не вдаваться в подробности скелета, конечно). Ну и что остаётся из непростого? Кисти рук, разве что, да и то только в каких-нибудь заковыристых ракурсах или в перспективе, однако вытянутую кисть в профиль или растопыренную пятерню не так уж и сложно рисовать — знай себе, что средний палец самый длинный, а остальные скачут от него.
А что прибавляется непростого в хуманизации для привыкшего рисовать пони малювателя? Ну давайте считать: кисти уже были, раз. Плюсуйте сюда ещё и стопы ног (если изображать в открытой обуви или босиком, когда видно пальцы) и. сразу всю голову приплюсуем или разберём по косточкам? Да разберём, конечно же! Ну, продолжайте счёт: носы, уши, глаза, губы (о Луна, дай мне сил с ними справляться!). Итого шесть непростых для новичка в людях элементов, против одного у антрушки! Конечно же антро проще! Но разве мы ищем лёгких путей?
И что, у человекофикации совсем нет плюсов? Лишь одни сложности? Хм. дайте подумать. Их аж три!
1.) За счёт куда более тонких элементов лица, его чуть легче сделать уникальным, наполнить разными чертами. Что есть губы в антро? Да изогнутая полоска или пара полосок. А у людей? О, губы можно сделать пышными или тонкими, со скруглённой нижней губой или с угловатой, а так называемая "арка купидона"? Просто тьма вариантов. И мимические морщинки при разных эмоциях. А разрезы глаз как разнить можно! В общем, портретисты меня поймут.
2.) Для непосвящённого в Брони фэндом обычные хуманизации могут оказаться более привычными и позволят легче ввести в фэндом и бронифицировать.
3.) Всё же пони и их производные, по типу антро, ну или та же фуррятина — это более узкоспециализированная вещь, чем рисунки с людьми, и большинству непосвящённых, обычных личностей пони/антро/фуррятина может показаться странной и даже отталкивающей. А вот рисованные люди, даже если и с разноцветными париками-тряпочками вместо волос, уже могут зайти большему кругу людей.
Остаётся только научиться их рисовать пристойно. Можно пойти по лёгкому пути, по типу стилизации из аниме, или же выбрать более реалистичный путь.
Мною когда-то в начале хум пути был избран стилизационный вариант, головы получались как в эквестрийских бабёнках, при более-менее реалистичных пропорциях тел (а не эти ЕГшные спички, бр-р!), но со временем мне почему-то довелось прийти к чему-то более реалистичному в плане пропорций. эх, и почему я опять иду по сложному пути? Но, впрочем, о хуманизациях конкретно я расскажу в других постах, а то я снова отклоняюсь от темы.
Итак, по плюсам мы видим превосходство антро. Эдак, антро для казуалов, не сдюживших в человеческие головы (я утрирую!) и людей из фэндома, а хуманизации для эстетов тонких материй и непосвящённых в фэндомные дрязги. Теперь понятней. А какой из подходов удачней получился у автора этой записи — решать, конечно же, вам. Хоть результат и немного предсказуем.
А если у вас есть что сказать по этой теме, то комментарии всегда открыты! И да, пишите "большие ушки" в комментариях, если прочли абсолютно всё и дочитали до конца. Спорим, что таких людей найдётся. один! Или вообще не будет. И зачем было всё это писать? Спросите об этом Графомашку!
P.S.: А дальше вас будут ждать не только поняшные рисунки, но и всё же хуманизации. И антро. А может даже и фурри! Благо, что магносанспов табун персонажей сочетает в себе огромное количество разнообразных персонажей, которых для придания антропоморфности хоть по всем трём категориям распределяй! В общем, разнообразия в ближайшее время будет больше!
Р.P.S.: И да, для неравнодушных за прокачку умений с Т: да, надо бы пилить десятки, сотни скетчей, но. я же практикуюсь и таким способом. Видите, в более сложные материи лезу. Зачем? А чёрт знает! Может стиль свой ищу? Говорили же пробовать что-то новое? А новые, хорошие материалы уже куплены. Опробованы ли они? Оставлю это некой интригой, мало ли, вдруг вы заметите какое-то разительное улучшение, которое мне прочили от простого перехода на качественные материалы? Неужто может быть разительной разница от простых и дорогих материалов? Разве не в руках дело? Так что любая из следующих работ как может быть сделана новыми материалами, так и нет. А здесь что? Только гадать. Но ничего ведь не поменялось, ага?
P.P.S.: И ещё. узнали отсылку? Может это напомнило вам что-то из детства или юности? На что это отсылка?
Р.P.P.S.: Ну а больше рисунков и текстов магносанспового авторства вы можете увидеть в группке Краюшек Закатного Солнышка.
Эта реализация не предназначена для крупномасштабных приложений. В частности, scikit-learn не поддерживает GPU. Чтобы узнать о гораздо более быстрых реализациях на базе графического процессора, а также о фреймворках, предлагающих гораздо большую гибкость для создания архитектур глубокого обучения, см. Связанные проекты .
1.17.7. Математическая постановка
Учитывая набор обучающих примеров $(x_1, y_1), (x_2, y_2), \ldots, (x_n, y_n)$ где $x_i \in \mathbf^n$ а также $y_i \in $, один скрытый слой один скрытый нейрон MLP изучает функцию $f(x) = W_2 g(W_1^T x + b_1) + b_2$ где $W_1 \in \mathbf^m$ а также $W_2, b_1, b_2 \in \mathbf$ параметры модели. $W_1, W_2$ представляют веса входного слоя и скрытого слоя соответственно; а также $b_1, b_2$ представляют смещение, добавленное к скрытому слою и выходному слою соответственно. $g(\cdot) : R \rightarrow R$- функция активации, установленная по умолчанию как гиперболический загар. Это дается как,
$$g(z)= \frac>>$$
Для бинарной классификации $f(x)$ проходит через логистическую функцию $g(z)=1/(1+e^)$ для получения выходных значений от нуля до единицы. Порог, установленный на 0,5, будет назначать образцы выходных данных, превышающих или равных 0,5, положительному классу, а остальные — отрицательному классу.
Если классов больше двух, $f(x)$ сам был бы вектором размера (n_classes,). Вместо того, чтобы проходить через логистическую функцию, он проходит через функцию softmax, которая записывается как,
$$\text(z)i = \frac^k\exp(z_l)>$$
где $z_i$ представляет $i$-тый элемент ввода в softmax, который соответствует классу $i$, а также $K$ количество классов. Результатом является вектор, содержащий вероятности, которые выбирают $x$ принадлежат к каждому классу. На выходе получается класс с наибольшей вероятностью.
В регрессии результат остается как $f(x)$; следовательно, функция активации выхода — это просто функция идентичности.
MLP использует разные функции потерь в зависимости от типа проблемы. Функция потерь для классификации — это кросс-энтропия, которая в двоичном случае задается как,
$$Loss(\hat,y,W) = -y \ln <\hat> — (1-y) \ln<(1-\hat)> + \alpha ||W||_2^2$$
где $\alpha ||W||_2^2$ это термин L2-регуляризации (также известный как штраф), который штрафует сложные модели; а также $\alpha > 0$ неотрицательный гиперпараметр, определяющий величину штрафа.
Для регрессии MLP использует функцию потерь квадратичной ошибки; написано как,
$$Loss(\hat,y,W) = \frac||\hat — y ||_2^2 + \frac ||W||_2^2$$
Начиная с начальных случайных весов, многослойный персептрон (MLP) минимизирует функцию потерь, многократно обновляя эти веса. После вычисления потерь при обратном проходе они распространяются с выходного уровня на предыдущие уровни, предоставляя каждому параметру веса значение обновления, предназначенное для уменьшения потерь.
При градиентном спуске градиент $\nabla Loss_$ потери по весам вычисляется и вычитается из $W$. Более формально это выражается как,
$$W^ = W^i — \epsilon \nabla _^$$
где $i$ — шаг итерации, а ϵ скорость обучения со значением больше 0.
Алгоритм останавливается, когда достигает заданного максимального количества итераций; или когда улучшение потерь ниже определенного небольшого числа.
Читайте также: