Size: a a a

2020 September 18

DZ

Dmitry Zuev in Data Engineers
Anton Zadorozhniy
переписать XGBoost на SQL, и всем будет удобно!
Я собесил чувака который перспетроны на скл писал
источник

AZ

Anton Zadorozhniy in Data Engineers
Oleksandr Averchenko
Как два пальца об асфальт.
ну или можно просто попросить СУБД запустить питон или что там
источник

AE

Alexey Evdokimov in Data Engineers
Oleksandr Averchenko
И фронтенд тоже.
я видел такую систему в эксплуатации. от ingest'а сырых данных до рассылки писем клиентам ВСЁ НА PL/SQL
источник

AE

Alexey Evdokimov in Data Engineers
меня наняли, чтобы сделать к неё отдельно стоящий фронт. делал два года. потом контора сдохла.
источник

AE

Alexey Evdokimov in Data Engineers
хм. посмотрел. а всего-то 362 хранимки. не так и много, и почему я эту лапшу почти год распутывал...
источник

МС

Михаил Связный... in Data Engineers
Всем привет! Коллеги, подскажите в чем проблема. Испульзую спарк стриминг для чтения из кафки, однако он выводит только первое сообщение, а остальные нет
spark = SparkSession \
   .builder \
   .appName('Test') \
   .getOrCreate()

lines = spark \
   .readStream \
   .format("kafka") \
   .option("kafka.bootstrap.servers", "10.1.25.111:9092, 10.1.25.112:9092, 10.1.25.113:9092") \
   .option("subscribe", "dev.etl.fts-ftp.agr2") \
   .option('startingOffsets', 'earliest') \
   .load()


lines \
 .selectExpr("CAST(key AS STRING)", "CAST(value AS STRING)") \
 .writeStream \
 .format("console") \
 .start() \
 .awaitTermination()
источник

VP

Vitaly Petrov in Data Engineers
Михаил Связный
Всем привет! Коллеги, подскажите в чем проблема. Испульзую спарк стриминг для чтения из кафки, однако он выводит только первое сообщение, а остальные нет
spark = SparkSession \
   .builder \
   .appName('Test') \
   .getOrCreate()

lines = spark \
   .readStream \
   .format("kafka") \
   .option("kafka.bootstrap.servers", "10.1.25.111:9092, 10.1.25.112:9092, 10.1.25.113:9092") \
   .option("subscribe", "dev.etl.fts-ftp.agr2") \
   .option('startingOffsets', 'earliest') \
   .load()


lines \
 .selectExpr("CAST(key AS STRING)", "CAST(value AS STRING)") \
 .writeStream \
 .format("console") \
 .start() \
 .awaitTermination()
Передай Паше Кащенко привет))
Узнал по IP)
источник

МС

Михаил Связный... in Data Engineers
источник

PK

Pavel Kashchenko in Data Engineers
передал, спасибо )
источник

PK

Pavel Kashchenko in Data Engineers
Тебе тож привет )
источник

VP

Vitaly Petrov in Data Engineers
Попробуй offset убрать
источник

МС

Михаил Связный... in Data Engineers
Vitaly Petrov
Попробуй offset убрать
результат тот же
источник

K

KrivdaTheTriewe in Data Engineers
Пошли после митапа
источник

DZ

Dmitry Zuev in Data Engineers
Пошли
источник

DZ

Dmitry Zuev in Data Engineers
Можно вместо
источник

А

Алексей in Data Engineers
в чем проблема писать мл на oracle, он все умеет) http://blog.skahin.ru/2020/03/oracle-dataminer-ml-python-sklearn.html
источник

OA

Oleksandr Averchenko in Data Engineers
Алексей
в чем проблема писать мл на oracle, он все умеет) http://blog.skahin.ru/2020/03/oracle-dataminer-ml-python-sklearn.html
mssql тоже умеет
источник
2020 September 19

ME

Max Efremov in Data Engineers
Ох, реклама прям в нике)
источник

RK

Roman Kalmanson in Data Engineers
Max Efremov
Ох, реклама прям в нике)
Не спорю. Но и не во вред здешнему народу :)
источник
2020 September 20

SD

Serg D. in Data Engineers
Всем привет. Ребят, подскажите, пожалуйста. Работаю интерактивно со spark-shell. Команды типа explain или sc.getConf.getAll выводят ограниченное кол-во строк.  Нагуглил spark.debug.maxToStringFields, но установка этого параметра ничего не меняет. Как увидеть полный вывод?
источник