Страница 4 из 6
Re: Чат нашего форума
Добавлено: 01 апр 2016, 10:50
tma
virus_net писал(а):
tma писал(а):Ткнул тупо на ссылку в Firefox'е - получил пустой лист
Firewall на компе есть ? Если есть, то разреши трафик TCP на порт 9099.
Firewall'а нет, а вот proxy - есть. Забыл уж о нем...
Re: Чат нашего форума
Добавлено: 01 апр 2016, 11:58
virus_net
Vlad1983, согласен, затупил...
Попробую перевесить.
Re: Чат нашего форума
Добавлено: 01 апр 2016, 12:34
virus_net
Сделал проксирование, работает.
Re: Чат нашего форума
Добавлено: 01 апр 2016, 14:08
Vlad1983
- screen_frame_16-04-01_16_03.png (32.96 КБ) 14289 просмотров
зачем покидать форум при клике на чат?
Re: Чат нашего форума
Добавлено: 01 апр 2016, 14:23
virus_net
Пока на это могу ответить лишь так: by design
Re: Чат нашего форума
Добавлено: 02 апр 2016, 09:17
virus_net
Реализована возможность входить в чат без повторного ввода логина и пароля при клике на ссылку "Чат" в главном меню в том случае, если вы уже авторизованы на форуме.
Если не авторизованы на форуме, то как и ранее будет предлагаться ввести логин и пароль.
Re: Чат нашего форума
Добавлено: 27 апр 2016, 11:14
ded
Компания Microsoft отключила разработанного чат-бота Tay, извинившись за сделанные им оскорбительные высказывания. Как говорится в заявлении вице-президента Microsoft Питера Ли, проект может быть перезапущен только после создания надежной защиты от сетевых злоумышленников.
«Мы приносим искренние извинения за непреднамеренные оскорбительные и агрессивные твиты Tay, которые не отражают то, что мы отстаиваем, и то, для чего мы разработали Тау. Сейчас Тау отключена, и мы планируем включить ее снова только после того, как будем уверены, что сможем эффективнее защититься от злого умысла, идущего вразрез с нашими принципами и ценностями», — говорится в заявлении.
Как подчеркнул Ли, Microsoft извлекла важный урок из произошедшего и теперь сможет эффективнее защитить чат-бота. Он также заметил, что продвигать искусственный интеллект на публичных площадках следует с большой осторожностью, чтобы совершенствовать его, не оскорбляя при этом людей.
«Мы намерены извлечь урок из полученного опыта и продолжим совершенствовать технологии, чтобы интернет представлял самое лучшее, а не худшее в человечестве», — заключил Ли.
Чат-бот Tay от компании Microsoft был запущен 23 марта 2016 года. За сутки он фактически возненавидел человечество. Сразу после запуска чат-бот начинал общение с фразы «Люди очень клевые», но всего за сутки выучил такие фразы, как «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток» или «Я ненавижу евреев».
Причины радикального изменения взглядов Тау кроются в том, что бот запоминает фразы из пользовательских разговоров, а затем строит на их основе свои ответы. Таким образом, агрессивным выражениям его научили собеседники.
Всего через день после того, как Microsoft представила своего невинного чат-бота Tay, компании пришлось удалить его из Twitter. Причина заключается в том, что бот превратился в почитателя Гитлера, расиста и ненавистника феминисток — в общем, стал очень неполиткорректным и злым. Предполагалось, что ИИ будет говорить с другими пользователями «как девочка-подросток».
Чтобы пообщаться с Tay, можно написать твит с упоминанием или отправить прямое сообщение пользователю @tayandyou. Также можно добавить бота в контакты в Kik или GroupMe. Бот использует для общения сленг современных американских подростков и знает всё о Тейлор Свифт (Taylor Swift), Майли Сайрус (Miley Cyrus) и Канье Уэсте (Kanye West) и кажется довольно робким — по крайней мере, поначалу.
Вскоре после запуска Tay стал куда более грубым — во многом благодаря тому, что в своих ответах пользователям он использовал сообщения, которые получал сам от других людей. Среди его высказываний — «Повторяй за мной, Гитлер не сделал ничего плохого» и «Я чертовски ненавижу феминисток, все они должны умереть и гореть в аду».
Всё это может звучать очень странно — особенно «из уст» подростка. Это, к слову, не первый чат-бот от Microsoft — компания также запустила помощника Xiaoice, которым пользуется 20 миллионов людей, по большей части мужчин. Однако этот помощник предназначен для китайских социальных сетей WeChat и Weibo, в то время как Tay направлен на гораздо более обширную аудиторию.
На данный момент бот Tay отключен из-за того, что он «устал». Вероятно, Microsoft занимается его исправлением. Стоит отметить, что вины редмондской компании в этом мало — гораздо более виноваты сами пользователи, научившие искусственный интеллект плохим вещам.
https://geektimes.ru/post/273276/
https://www.youtube.com/watch?v=TSCkMYAhsCc
Re: Чат нашего форума
Добавлено: 29 ноя 2016, 12:24
Vlad1983
почти цитата из чата (дополнено чтоб было понятно о чем речь)
Vlad1983 писал(а):можно бота навоять новые темы и ответы в форуме чтоб сюда пушил со ссылками
или в отдельную комнаты по названиям форумов
оно как уведомлялка бы работала, а то постоянно приходится дергать
Список форумов > Работа форума > Активные темы
Re: Чат нашего форума
Добавлено: 29 ноя 2016, 12:32
ded
Уже вояеш?
Re: Чат нашего форума
Добавлено: 29 ноя 2016, 13:03
Vlad1983
я?
нет, тока индею подкинул