Big Data

白天 夜间 首页 下载 阅读记录
  我的书签   添加书签   移除书签

concat_ws, collect_set

浏览 90 扫码 分享 2023-11-24 02:19:49
  • concat_ws: 用指定的连接符连接字符串
  • collect_list: returns a list of objects with duplicates

    https://spark.apache.org/docs/latest/api/python/pyspark.sql.html#pyspark.sql.DataFrame

    concat_ws: 用指定的连接符连接字符串

    1. concat_ws("_", field1, field2)
    2. #out: field1_field2
    3. concat_ws("_", [a, b, c])
    4. # out: a_b_c

    collect_list: returns a list of objects with duplicates

    1. df = spark.createDataFrame([(2, ), (5, ), (7, ), ('age',)])

    若有收获,就点个赞吧

    0 人点赞

    上一篇:
    下一篇:
    • 书签
    • 添加书签 移除书签
    • todo
    • scratch
    • Spark manual
      • spark.ml
        • word2Vec
      • Error
        • 堆内存溢出 OOM
      • Spark ML
        • LSH 局部敏感哈希
      • Yarn on spark
      • 数据类型
      • DataFrame - pyspark
        • format_number 精确小数
        • 读写模型
        • filter 多个条件
        • concat_ws, collect_set
        • 性能优化
        • MySQL 读写 JDBC
      • TFIDF
      • Vector and Matrix
    • 环境配置
      • ERROR and WARN
        • spark集群无法停止
        • Neither spark.yarn.jars nor spark.yarn.archive is set
      • Docker pyspark配置
      • 基于Docker搭建spark分布式集群
      • Install and config
    • 大数据基础
      • Hive 数据仓库软件
      • Hive vs. HBase
    • Spark编程基础 (Python)
      • 1. 大数据技术概述
      • 2. Spark设计与运行原理
      • 3. 基本使用
      • 4. RDD编程
        • HBase
      • 5. Spark SQL
      • 8. Spark MLlib
    • Scala
      • install
      • 基础知识
      • 面向对象编程
      • 函数式编程
    暂无相关搜索结果!

      让时间为你证明

      展开/收起文章目录

      分享,让知识传承更久远

      文章二维码

      手机扫一扫,轻松掌上读

      文档下载

      请下载您需要的格式的文档,随时随地,享受汲取知识的乐趣!
      PDF文档 EPUB文档 MOBI文档

      书签列表

        阅读记录

        阅读进度: 0.00% ( 0/0 ) 重置阅读进度

          思维导图备注