Size: a a a

AI / Искусственный Интеллект

2020 September 11

DP

Defragmented Panda in AI / Искусственный Интеллект
Roman Kalmanson
А как же гугловский и яндексовский переводчики работают?
так же
источник

DP

Defragmented Panda in AI / Искусственный Интеллект
и такой же шанс ошибки
источник

RK

Roman Kalmanson in AI / Искусственный Интеллект
Нормально они переводят! Вряд ли там высок процент ошибки
источник

DP

Defragmented Panda in AI / Искусственный Интеллект
ну, спроси любого человека который знает 2 языка посмотреть 10 предложений переведенных гуглопереводом
источник

DP

Defragmented Panda in AI / Искусственный Интеллект
неточности будут. и в твоем случае (написать документацию языка) их можно считать ошибками.
источник

RK

Roman Kalmanson in AI / Искусственный Интеллект
Defragmented Panda
то о чем ты думаешь (символьные системы) перестали развиваться после 1990
Почему это я о символьных системах? Я считал что я о семантических. Анализ то  я предполагаю не по буквам, а по блокам, словам.
источник

DP

Defragmented Panda in AI / Искусственный Интеллект
Roman Kalmanson
Почему это я о символьных системах? Я считал что я о семантических. Анализ то  я предполагаю не по буквам, а по блокам, словам.
это все еще символы
источник

RK

Roman Kalmanson in AI / Искусственный Интеллект
Может это просто я невнятно объясняю чего я хочу?
источник

DP

Defragmented Panda in AI / Искусственный Интеллект
методы в которых ты думаешь, то как ты описываешь ии, намекают что ты в этот момент думаешь о символьных системах (когда ИИ по твоему считает "так, это существительное, это прилагательное к нему ...")
источник

DP

Defragmented Panda in AI / Искусственный Интеллект
а нейронки гугла, GPT и все прочее сегодня - не работает на символьных системах. там нет нигде четкого разделения на существительные и прилагательные (наверное?), просто куча весов нейронки. все данные "грязные", и с высоким шансом ошибки.

этот  метод называют коннективизмом (веса, соединения нейронов)
источник

RK

Roman Kalmanson in AI / Искусственный Интеллект
такое ощущение что сказанное означает что если нейронки использовать для анализа программного кода, то они выявят все конструкции языка. А вот если нейронку применить к описанию языка, то она не сможет выделить конструкции языка.
источник

DP

Defragmented Panda in AI / Искусственный Интеллект
Roman Kalmanson
такое ощущение что сказанное означает что если нейронки использовать для анализа программного кода, то они выявят все конструкции языка. А вот если нейронку применить к описанию языка, то она не сможет выделить конструкции языка.
потому что программного кода можно собрать 100гб

а описания языка всего 100кб
источник

DP

Defragmented Panda in AI / Искусственный Интеллект
нейронки требуют очень много данных чтобы уменьшить шанс ошибки (т.е. чтобы они начали выдавать что-то полезное хотя бы иногда)
источник

RK

Roman Kalmanson in AI / Искусственный Интеллект
Но в моём случае я же дам нейронке взамен более четкое описание чем различаются в тексте конструкции языка
источник

DP

Defragmented Panda in AI / Искусственный Интеллект
Roman Kalmanson
Но в моём случае я же дам нейронке взамен более четкое описание чем различаются в тексте конструкции языка
нейронке пофиг, насколько я знаю. Она не может быстро обучаться, даже на хороших данных

символьные системы могут. но они почти не развивались последнее время. и я о них не знаю
источник

RK

Roman Kalmanson in AI / Искусственный Интеллект
Однако, спасибо за помощь :) Буду думать и дальше копать.
источник
2020 September 12

/

/dev/desider in AI / Искусственный Интеллект
Вы всегда так готовите?)
источник
2020 September 13

NL

Nick Linker in AI / Искусственный Интеллект
/dev/desider
Вы всегда так готовите?)
Любопытный способ...
источник

DD

David Dale in AI / Искусственный Интеллект
Roman Kalmanson
Уточняю. Мне нужно, чтобы программа перебрала все команды языка программирования и произвела семантический анализ языка, поместив результат в базу данных. Входные данные как я здесь полагаю - список команд языка или просто текст, содержащий описание всех команд и параметров языка.
Не знаю, нужны ли тебе именно нейронки, но возможно, задача, которую ты решаешь, называется automatic grammar induction, и по этой фразе можно гуглить статьи и алгоритмы.
Грамматика - это довольно удобный инструмент формального описания языков, похожий на то, что ты хочешь получить.

А grammar induction - это построение грамматик по корпусам текстов. Я не видел статей, в которых это удавалось сделать прям хорошо для естественных языков - слишком уж они разнообразны. Но, возможно, как раз для языков программирования этот подход окажется в самый раз. Тем более что синтаксис многих из них как раз грамматиками описывают и парсят. Вот, например, грамматика языка Python.
источник

RK

Roman Kalmanson in AI / Искусственный Интеллект
А инструмент есть, чем анализировать?
источник