Size: a a a

2021 March 14

R

Reffi_4 in Python KZ
Bauka Alimgazy
мне всего лишь несколько методов в АПИ нужно. Наверное тогда fastAPI
Да
источник

BA

Bauka Alimgazy in Python KZ
Ну или на node.js сразу, сайту нужен еще SSR, но это позже
источник

D

Dinsultan in Python KZ
Bauka Alimgazy
мне всего лишь несколько методов в АПИ нужно. Наверное тогда fastAPI
А зачем тебе на асинх фреймворк переписывать?
источник

S

Shokan in Python KZ
Асинхронность может быть решением?
источник

R

Reffi_4 in Python KZ
ССР можно на вью на Nuxt.JS
источник

R

Reffi_4 in Python KZ
Dinsultan
А зачем тебе на асинх фреймворк переписывать?
Там увлуп там увикорн там красиво
источник

BA

Bauka Alimgazy in Python KZ
Dinsultan
А зачем тебе на асинх фреймворк переписывать?
Поиск очень медленно работает, да и не обязательно асинхронно, главное чтобы поиск норм работал, а не обрабатывал большие запросы минуту
источник

D

Dinsultan in Python KZ
Так асинх модель не решает же твою проблему
источник

R

Reffi_4 in Python KZ
Reffi_4
Перепишите на голанг/питон и юзайте постгрес и не надо роу запросы писать, орм юзайте. Пхп с мускулем тоже не надо
Да и я так-то рофлил на счёт этого)))00
источник

BA

Bauka Alimgazy in Python KZ
Страницы представлены ввиде большого JSON, страниц очень много, больше 30К наверное
источник

R

Reffi_4 in Python KZ
Это ж от базы зависит и от самих запросов к ней(зачастую)
источник

D

Dinsultan in Python KZ
Звучит как будто бы архитектурной проблемой, переписывать может и стоит. Но лучше наверное стоит больше внимания уделить тому как ты будешь это реализовывать заново, т.к просто заменой инструмента(бд/фреймворк) кажется это не решится
источник

BA

Bauka Alimgazy in Python KZ
Может для каждой страницы сделать список слов и количество вхождении, потом искать по этим словам? Но я понятия не имею как это реализовать
источник

DL

Daniyar Lyakhov in Python KZ
Dinsultan
Звучит как будто бы архитектурной проблемой, переписывать может и стоит. Но лучше наверное стоит больше внимания уделить тому как ты будешь это реализовывать заново, т.к просто заменой инструмента(бд/фреймворк) кажется это не решится
Версия БД имеет значение, чем ниже версия - тем хуже поддержка поиска.
источник

R

Reffi_4 in Python KZ
Bauka Alimgazy
Может для каждой страницы сделать список слов и количество вхождении, потом искать по этим словам? Но я понятия не имею как это реализовать
В каждой странице просто ищи и не парься))000
источник

BA

Bauka Alimgazy in Python KZ
Reffi_4
В каждой странице просто ищи и не парься))000
Я сейчас так и делаю, WHERE json LIKE "%query% OR title LIKE "%query%" Примерно такой запрос, но он очень медленно работает. Крч сайт учебный и обязательно должен быть поиск внутри сайта.
источник

R

Reffi_4 in Python KZ
Значит ищи не все результаты
источник

BA

Bauka Alimgazy in Python KZ
Reffi_4
Значит ищи не все результаты
Там и так в запросе использую offset limit, но все равно медленно. И ещё на сайте должно отображаться сколько результат всего найдено, чтобы снизу в кнопке для перехода на следующую страницу результатов выдачи(paginator) отображалось сколько всего страниц есть по этому запросу, то есть все равно надо будет искать по всей базе
источник

R

Reffi_4 in Python KZ
А ты не можешь отдавать весь жсон клиенту и прямо там сделать поиск на стороне клиента, и рендерить собственно не все результаты?
источник

R

Reffi_4 in Python KZ
Примерно, как у меня было для онлайн расписания
источник