51工具盒子

依楼听风雨
笑看云卷云舒,淡观潮起潮落

数据库

mysql主从同步延迟原因

mysql主从同步延迟原因

厉飞雨 阅读(15) 评论(0) 赞(0)

mysql主从同步延迟原因 ------------- 导致备库延迟的原因主要有如下几种: 1. 通常备库所在机器的性能要比主库所在的机器性能差,执行备份自然会更慢。 2. 备库的读压力大。在备库过多的执行繁重的查询任务。 3. 大事务。因为主库上必须等事务执行完成才会写入 binlog,再传给备库。一次性地用 delete 语句删除太多数据、表 DDL都可能造成延迟。 4...

MySQL远程连接之%权限

MySQL远程连接之%权限

厉飞雨 阅读(13) 评论(0) 赞(0)

我们在远程电脑管理数据库时经常遇到这样的问题 ![连接失败](http://static.51tbox.com/static/2024-12-14/col/df4497985bf9b6f9a63f3ad8c2aa6645/a64019e1391846f6a3a4868f96442e07.png.jpg "连接失败") 那么本文章给大家来解决一下这个问...

如何导入超大的sql文件到Mysql

如何导入超大的sql文件到Mysql

厉飞雨 阅读(12) 评论(0) 赞(0)

#### 如何从sql文件导入到Mysql {#如何从sql文件导入到Mysql} *** ** * ** *** 你可以使用如下命令将sql导入到Mysql: |-----------|---------------------------------------| | ``` 1 ``` | ``` mysql -u 用户名 -p 数据库名 < 文件.sql `...

spark 丢失临时文件问题

spark 丢失临时文件问题

厉飞雨 阅读(14) 评论(0) 赞(1)

spark 丢失临时文件问题 HHH 日志改造问题 背景 目前 HHH 日志初筛程序由于 RPC 处理时间过长,需要优化改造成 SparkStreaming 处理; 同时,HHH 日志解析后续 DP、DK、DEL 表生成同样适用MR 处理,浪费大量资源,可改造合并到 Spark Streaming 中一块处理。但在合并初筛、HHH 日志解析、DP、DK、DEL 时,碰到...

如何在PySpark中将DataFrame进行转换?

如何在PySpark中将DataFrame进行转换?

厉飞雨 阅读(16) 评论(0) 赞(1)

英文: How to transform in DataFrame in PySpark? 问题 {#heading} ============= 以下是翻译好的部分: 我在 Py Spark 中有一个数据框,其中包含列:id、name、value。 列名应为每个id取值`A、B、C`。value列包含数值。 样本数据框: dat...