Смешная новость: Амазон закрыл проект в котором искусственный интеллект искал подходящих кандидатов на работу, но делал это оскорбительным для женщин образом: Amazon scraps secret AI recruiting tool that showed bias against women.
Слаб ещё искусственный интеллект. Не просекает всю тонкость исторического момента.
P.S. Аналогичный случай был в Тамбове: Tay (bot)
Слаб ещё искусственный интеллект. Не просекает всю тонкость исторического момента.
P.S. Аналогичный случай был в Тамбове: Tay (bot)
no subject
Date: 2018-10-12 01:05 pm (UTC)interesting!!! rather than scrapping it they should have analyzed how it taught itself.
no subject
Date: 2018-10-13 04:40 am (UTC)no subject
Date: 2018-10-13 04:46 pm (UTC)т.е. может машинка-то права.
а может у нее критерии были как-то криво налажены. и она фильтрует неумно. хорошо бы сел эксперт наниматель и проверил - а не выбросила ли машинка сильные кандидатуры просто потому что женщина идет в минус?
no subject
Date: 2018-10-13 10:36 pm (UTC)Но даже если отладить все критерии, то по сегодняшнему состоянию рынка от засилья мужчин никуда не деться. Если надо взять 10 программистов, и есть 8 кандидатов мужчин и 2 женщины, то хоть что делай, но будет больше мужчин. Просто нет столько женщин на рынке.
Ничего удивительного в том что машина права. Это подтверждается кучей всяких экспериментов, котрые уже проделывали: интервьюировали вслепую и т.д. На этих тестах, кстати, женщины показывют ещё худший результат, чем при личной беседе. В скандинавских странах такая же картина, при полнейшем равенстве, квотах и пр, женщин в СТЕМе ещё меньше чем в мизогинской Америке. Ну не идут женщины в СТЕМ по миллиону причин, зачем их туда насильно тянуть?
no subject
Date: 2018-10-13 11:28 pm (UTC)Оно именно так работает на сильно зашумленной (равномерно распределенной, с большими разбросами, пересечением разных групп в общем поле) картинке, сначала пытается разбить на некие группы по некоторому легко определяемому формальному признаку, а потом уже обрабатывать эти группы по отдельности. Иначе ничего хорошего не получается, железный моск не умеет в выводы, он умеет только в статистику, а статистика по шумной общей картинке - это средняя температура по больнице. Сначала надо выделить (обнаружить, например по упоминанию слов "скончался" и "лихорадка" в данных) морг и инфекционку, а только потом усреднять.
А с группами - да, уже начинает выбрасывать и возможно сильные кандидатуры, просто потому, что оно относится к такой в целом бесперспективной группе. Добро пожаловать в светлое будущее, в котором усиленное борцунство за права некоторой группы убогих-угнетенных-сирых прежде всего означает, что те умные-тянущие-продвинутые, кто имеет несчастье относиться к этой группе, кто продвинулся несмотря ни на что, кто приложил свои огромные усилия для выбирания из - сильно получают по рогам, просто так, заодно. Раз эта группа вся в целом доборолась до звания настолько задвинутой, что ее надо искусственно тянуть вверх, то значит к любому ее члену надо обьективно применять соответствующую поправку на эту самую тягу.
no subject
Date: 2018-10-12 02:58 pm (UTC)https://towardsdatascience.com/a-gentle-introduction-to-the-discussion-on-algorithmic-fairness-740bbb469b6
no subject
Date: 2018-10-13 04:43 am (UTC)Я ещё удивлялся как так выходит что HR индустрия одина из самых больших потребителей big data сервисов и data scientists. Оказывается все эти учёные учат тупую машину давать политически грамотные ответы.
no subject
Date: 2018-10-13 05:12 am (UTC)no subject
Date: 2018-10-13 05:21 am (UTC)no subject
Date: 2018-10-13 05:29 am (UTC)no subject
Date: 2018-10-13 05:49 am (UTC)no subject
Date: 2018-10-13 08:55 am (UTC)no subject
Date: 2018-10-12 04:08 pm (UTC)На самом деле ещё интереснее вот эта часть:
Some activists say they are concerned about transparency in AI. [...] Still, Goodman and other critics of AI acknowledged it could be exceedingly difficult to sue an employer over automated hiring: Job candidates might never know it was being used.
Когда одни инженеры ругают других, мол, непонятно, что происходит в мозгах у всяких невротических сетей и почему они решают так, а не эдак, другие инженеры оправдываются, что умом этого не понять, что алгоритмы эти - как чёрные ящики, и что лучше думать о них, как о детях, которых мы обучаем, а потом они неожиданно думают сами. Если так, то они "agents", как люди. Agency людей ограничено законами и всякой там этикой. Человек знает, что если он пойдёт рубить соседей топором, это скажется на его карьере и социальном статусе. Большинство поэтому сдерживается, а редких людей, которые всё-таки идут на ближнего с топором, ловят и обезвреживают. Если AI нельзя запрещать думать плохое, то нужна возможность эффективно запрещать ему делать плохое. Не знаю, как. Ведь если AI ловить, судить и сажать в тюрьму, он только плечами пожмёт.
no subject
Date: 2018-10-12 05:28 pm (UTC)Собственно об этом уже подумали очень давно (https://robo-hunter.com/news/kulturnii-kod-azimova-kak-tri-zakona-robototehniki-voshli-v-istoriy8887).
no subject
Date: 2018-10-12 05:50 pm (UTC)Трудность тут в том, что придумать правило легче, чем добиться, чтоб оно выполнялось. Любой, кто воспитывал детей, знает об этом на своей шкуре. И ведь у нас есть рычаги воздействия на детей - взрослые обычно свободнее, умнее и сильнее. А если дети шалят особенно сильно, то включаются рычаги ювенальной юстиции и т.п.. Детей можно строго отчитать, лишить мороженого, посадить в камеру, а в некоторых странах даже казнить. Всё это производит на них впечатление, и они обычно стараются этого избежать. С алгоритмами дело обстоит по-другому.
no subject
Date: 2018-10-13 04:51 am (UTC)Подозреваю что внедрение ИИ будет застопорено и в других областях, как только машины начнут отвечать на поставленные вопросы. Оказалось что ответов-то никому и не нужно. С такими ответами как бы уже человеческие головы не полетели. Нафиг нафиг, будем нанимать по-старинке! :)
no subject
Date: 2018-10-13 11:34 pm (UTC)no subject
Date: 2018-10-14 04:41 am (UTC)В крайнем случае организуемся в подполье и будем
пускать под откоссаботировать электростанции. Тогда и посмотрим чей интеллект возьмёт верх.no subject
Date: 2018-10-14 05:30 am (UTC)