客户端连接

TTU

  • 建议安装功能列表
    • ODBC Driver for Teradata *
    • BTEQ *
    • Teradata SQL Assistant *
    • OLEDB Access Module *
    • .NET Data Provider for Teradata

安装完成后菜单路径:C:\ProgramData\Microsoft\Windows\Start Menu\Programs\Teradata Client *。

  • 配置
  1. 配置ODBC数据源。

点击菜单“ODBC Administrator”,进入后“添加”数据源,配置如下:
image.png

  1. 登录Teradata。

可以使用“Teradata BTEQ”、“Teradata BTEQwin”、“Teradata SQL Assistant”等客户端方式登录。“BTEQ”进入界面之后即可使用,“Teradata SQL Assistant”需要如下配置:
(1)“Data Provider”选择“ODBC”,点击“Connect….”,则之后选择已配置好的ODBC数据源即可。
(2)“Data Provider”选择“Teradata.N”,点击“Connect….”,则在弹出的界面需要如下配置:
image.png

  • 补充

如果安装失败,建议先安装TDNetDP(.NET Data Provider for Teradata),之后再重试。
https://downloads.teradata.com/download/connectivity/net-data-provider-for-teradata

BTEQ

客户端登录

  1. bteq
  2. # dbc/dbc
  3. .LOGON 192.168.136.128/dbc
  4. SELECT * FROM "DBC".Indexes;

Perl调用

  1. #!/usr/bin/perl
  2. # 通过管道调用BTEQ
  3. my $bteq_rc = open(BTEQ, "| bteq");
  4. unless ($bteq_rc) {
  5. print "Could not invoke BTEQ command\n";
  6. return -1;
  7. }
  8. print BTEQ <<ENDOFINPUT;
  9. .WIDTH 1024;
  10. .HELP BTEQ;
  11. ENDOFINPUT

JDBC

DBeaver如何连接Teradata数据库
https://jingyan.baidu.com/article/03b2f78cb45d751ea237aea8.html

基本SQL操作

用户操作

  • 查看用户

    1. select * from DBC.Databases where dbkind = 'U';
  • 查看账户

    1. SELECT UserId, AccountName, RowType FROM "DBC".Accounts;
  • 创建用户

    1. # 创建用户时,用户名,永久空间和密码的值是必需的。 其他字段是可选的。
    2. CREATE USER TD01
    3. AS
    4. PERMANENT = 1000000 BYTES
    5. PASSWORD = ABC$124
    6. TEMPORARY = 1000000 BYTES
    7. SPOOL = 1000000 BYTES;
  • 创建用户(含账户)

    1. CREATE USER TD02
    2. AS
    3. PERMANENT = 1000000 BYTES
    4. PASSWORD = abc$123
    5. TEMPORARY = 1000000 BYTES
    6. SPOOL = 1000000 BYTES
    7. ACCOUNT = ('IT','Admin');

    数据库操作

  • 创建数据库 ```sql — 数据库perm大小为10G Create database testbase as perm=10E9,spool=10E9; DATABASE testbase;

/**

  • 该命令创建了一个测试数据库testbase
  • 其永久表空间为200mb,spool空间不超过100mb,语句中单位为bit
  • 在Teradata数据库系统的缺省方式下,是不区分大小写字母的。 */ create database testbase as perm=200000000,spool=1000000000;

/**

  • 改数据库的命令举例
  • 该命令将 testbase 的永久表空间修改为300mb,spool空间不变 */ modify database testbase as perm=300000000; ```
  • 删除数据库

    1. -- 删除数据库,需要删除数据库中所有数据表,视图和宏。
    2. Delete database testbase;
    3. drop database testbase;

    表操作

  • 创建物理表

    1. -- example-001
    2. create multiset table testbase.stg( stg decimal(18, 2) title '总贷款' ) no primary index ;
    3. -- example-002
    4. CREATE TABLE employee_bkup (
    5. EmployeeNo INTEGER,
    6. FirstName CHAR(30),
    7. LastName CHAR(30),
    8. DepartmentNo SMALLINT title '部门编号',
    9. NetPay INTEGER
    10. )
    11. Unique Primary Index(EmployeeNo);
  • 创建可变临时表 ```sql — Database name, if specified, must be the login user name for a volatile table. — example-001 自定义表结构 create volatile multiset table dbc.vt_stg ,no log( stg decimal(18, 2)) no primary index on commit preserve rows; CREATE MULTISET VOLATILE TABLE employee_bkup_tmp3 ,NO FALLBACK , CHECKSUM = DEFAULT, NO LOG (

    1. task_name VARCHAR(100) CHARACTER SET LATIN NOT CASESPECIFIC,
    2. count_num INTEGER,
    3. c3 VARCHAR(50) CHARACTER SET UNICODE NOT CASESPECIFIC
    4. )

    PRIMARY INDEX ( task_name ) ON COMMIT PRESERVE ROWS ; — example-002 使用AS关键字按照指定库表结构创建易失性表 create multiset volatile table employee_bkup_tmp, NO FALLBACK, NO BEFORE JOURNAL, NO AFTER JOURNAL, NO LOG, CHECKSUM =DEFAULT AS testbase.employee_bkup WITH NO DATA ON COMMIT PRESERVE ROWS ;

— example-003 使用AS关键字按照指定库表结构创建易失性表,并扩展字段 — ext2、ext3定义的结构为:VARCHAR(1),即’ ‘的长度,如果需要特定长度,则需要CAST转变 create multiset volatile table employee_bkup_tmp29, NO FALLBACK, NO BEFORE JOURNAL, NO AFTER JOURNAL, NO LOG, CHECKSUM =DEFAULT as ( select t1.* ,cast(‘’ as varchar(50)) as ext1 ,’ ‘ as ext2 ,’ ‘ as ext3 from testbase.employee_bkup as t1 ) WITH NO DATA ON COMMIT PRESERVE ROWS ;

  1. _**注意:易失性表不能修改表结构。**_
  2. - **添加表和字段注释**
  3. ```sql
  4. COMMENT ON TABLE DMR_PT_ALT_CENTR_REPAY_ACCT_WHITE_LIST IS '集中还款账户白名单';
  5. COMMENT ON COLUMN DMR_PT_ALT_CENTR_PAY_ACCT_WHITE_LIST.Acct_Num IS '账户代号';
  • 表结构更新(新增/删除)

    1. -- 新增“BirthDate”,删除“NetPay
    2. ALTER TABLE testbase.employee_bkup
    3. ADD BirthDate DATE FORMAT 'YYYY-MM-DD',
    4. DROP NetPay;
  • 表结构更新(修改)

因为不能通过“alter ”方式直接修改字段类型。要么先“alter drop”字段,再“alter add”字段。但是这样会丢失字段的数据。我们可以先通过“create tableA as (select … from tableB) with data; ” 再“drop table tableB”方式“曲线救国”。

  1. create table access_log_1(CLIENT_IP,cost_time)
  2. as (select IP,cost_time (decimal(10,2)) from access_log)
  3. with data;
  4. drop table access_log;
  5. rename table acccess_log_1 to access_log;
  • 表结构查看

    1. show table "DBC".Acctg;
  • 自增主键

    • ID INTEGER GENERATED BY DEFAULT AS IDENTITY
    • ID INTEGER GENERATED ALWAYS AS IDENTITY

示例:

  1. CREATE TABLE test
  2. (
  3. ID INTEGER GENERATED BY DEFAULT AS IDENTITY
  4. (START WITH 100
  5. INCREMENT BY 1
  6. ),
  7. CID INTEGER,
  8. PID INTEGER)
  9. -- 默认设定如下
  10. --(
  11. -- START WITH 100
  12. -- INCREMENT BY 1
  13. -- MINVALUE -2147483647
  14. -- MAXVALUE 2147483647
  15. -- NO CYCLE
  16. --)
  17. insert into test(CID,PID) values(1,1);
  18. insert into test(ID,CID,PID) values(1,1,1);
  19. insert into test(ID,CID,PID) values(110,1,1);
  20. -- GENERATED BY DEFAULT
  21. -- 运行成功,结果如下,可以插入指定的数值在列中
  22. 1 1 1
  23. 100 1 1
  24. 110 1 1
  25. -- GENERATED ALWAYS
  26. -- 运行成功,结果如下,指定的数值会被忽略,转换为自动增长数值
  27. 100 1 1
  28. 101 1 1
  29. 102 1 1
  • 表查询

    1. SELECT * FROM "DBC".Tables t2 where TableName like '%stg%';
  • 字段查询

    1. SELECT * FROM "DBC".columns where tablename like '%stg%';
    2. Select columnname,trim(columntitle) from dbc.columns
    3. Where databasename='DBC' and tablename like '%stg%'
    4. Order by columnid;
  • 表数据查询

    1. select * from testbase.stg;
  • 数据转换

    1. INSERT INTO employee_bkup
    2. SELECT a.EmployeeNo,
    3. a.FirstName,
    4. a.LastName,
    5. a.DepartmentNo,
    6. b.NetPay
    7. FROM
    8. Employee a INNER JOIN Salary b
    9. ON (a.EmployeeNo = b.EmployeeNo);
  • 删除表

    1. DROP TABLE employee_bkup;

    视图操作

  • 视图查询

    1. SELECT * FROM "DBC".TablesV;
  • 视图结构查看

    1. show view "DBC".Tables;

    取样查询

  • TOP N

    1. select top x * from table;
  • Sample N

    1. select * from table sample n;

    进制转换

    参考:https://www.cnblogs.com/badboy200800/p/10553695.html

    1. SELECT from_bytes(HASHROW(khzhgxxlh), 'base10') from DIF_dev.DIF_KHKZGXB0527;

    日期类型操作

  • 抽取

    1. -- 抽取年/月/日/时/分/秒
    2. SELECT EXTRACT (YEAR FROM CURRENT_DATE);
    3. SELECT EXTRACT (MONTH FROM CURRENT_DATE+90);
    4. SELECT EXTRACT (DAY FROM '1996-12-12');
  • 差值计算

    1. -- 日期差值(年/月/日)==只写daymonthyear差值最大99天、99月、99
    2. select (DATE'1995-02-02' - DATE'1995-01-01') day(4); -- 天数,差值最大9999天。
    3. select (date '1908-05-01' - date '1900-01-01') month(4); -- 月数,差值最大9999月。
    4. select (DATE'1999-02-02' - DATE'1995-01-01') year(4); -- 年数,差值最大9999年。
    5. -- 时间差值(小时/分/秒)
    6. select (TIMESTAMP '2009-08-25 19:14:59' - TIMESTAMP '2009-08-25 15:14:59') HOUR(4) -- 小时,差值最大9999h
    7. select (TIMESTAMP '2009-08-25 19:14:59' - TIMESTAMP '2009-08-25 15:14:59') MINUTE(4) -- 分钟,差值最大9999m
    8. select (TIMESTAMP '2009-08-25 15:15:59' - TIMESTAMP '2009-08-25 15:14:59') Second(4) -- 秒,差值最大9999s
    9. SELECT MONTHS_BETWEEN(DATE'1995-02-02', DATE'1995-01-01'); -- 月数
    10. SELECT ADD_MONTHS ('1999-08-15' , 1); -- 返回1999-09-15
    11. SELECT ADD_MONTHS ('1999-09-30' , -1); -- 返回1999-08-30
  • 特定日期

    1. -- 返回当月月底日期
    2. SELECT LAST_DAY(DATE '2009-12-20'); -- 返回2019-12-31
    3. SELECT LAST_DAY(TIMESTAMP '2009-08-25 10:14:59'); -- 返回2009-08-31
    4. -- 返回下一个周几日期
    5. SELECT NEXT_DAY(DATE '2009-12-20', 'TUESDAY'); -- 返回2009-12-22
    6. SELECT NEXT_DAY(DATE '2009-12-20', 'FRIDAY'); -- 返回2009-12-20
  • 日期转换

    1. SELECT CAST('20131230' as date format 'YYYYMMDD');
    2. SELECT CAST(CURRENT_DATE as date format 'YYYYMMDD');

    数据倾斜

    Teradata是MPP架构的数据库,因此它也面临着“木桶效应”的问题。何为木桶效应,简单说就是一个木桶能装多少水并不是由这个木桶最长的那个木板决定,而是有最短的那个决定的。适用在Teradata上可以理解为整个数据库的性能并不由最先完成数据处理的节点决定的,而是由那个最慢的节点决定的。因此假设一个节点过慢必将 拖慢整个数据处理的任务。而,“数据倾斜”将引发“木桶效应”,因此我们必须将我们大表的倾斜度控制在一个指标之内。 利用TableSize 这个视图我们可以检索出我们仓库数据倾斜度不在我们指标之内的。

  1. 数据倾斜度计算。

Teradata数据倾斜度的计算方法为:Skew = (max-avg)/avg*100

  1. SELECT T1.DATABASENAME, -- 库名
  2. T1.TABLENAME, -- 表名
  3. T1.SPACE_SUM, -- 表大小
  4. T1.SPACE_MAX, -- 最大AMP大小
  5. T1.SPACE_AVG, -- 平均AMP大小
  6. T1.SKEWFACTOR -- PI倾斜度
  7. FROM (SELECT DATABASENAME,
  8. TABLENAME,
  9. SUM(CURRENTPERM)*1.0000000 / 1000 / 1000 AS SPACE_SUM,
  10. MAX(CURRENTPERM)*1.0000000 / 1000 / 1000 AS SPACE_MAX,
  11. AVG(CURRENTPERM)*1.0000000 / 1000 / 1000 AS SPACE_AVG,
  12. (SPACE_MAX - SPACE_AVG) / SPACE_MAX * 100 AS SKEWFACTOR
  13. FROM DBC.TABLESIZE
  14. WHERE DATABASENAME = 'DTEMP'
  15. AND UPPER(TABLENAME) NOT LIKE '%_MI_%'
  16. AND UPPER(TABLENAME) NOT LIKE '%_MS_%'
  17. GROUP BY 1, 2
  18. ) T1
  19. WHERE T1.SKEWFACTOR >= 30
  20. ORDER BY SKEWFACTOR DESC;
  1. 数据分布查看。

    1. SELECT HASHAMP(HASHBUCKET(HASHROW(khzhgxxlh))) AS "AMP",
    2. COUNT(HASHAMP(HASHBUCKET(HASHROW(khzhgxxlh)))) AS ROW_COUNT
    3. FROM DIF_dev.DIF_KHKZGXB0527
    4. GROUP BY 1
    5. ORDER BY 2;
    6. -- 函数说明
    7. --1. HASHROW (column(s)) # 计算row的hash值
    8. --2. HASHBUCKET (hashrow) # 根据hashrow计算hashbucket,代表了一个hashmap的入口
    9. --3. HASHAMP (hashbucket) # 根据hashbucket确定数据分布到哪一个AMP

    基本函数

    正则

  2. regexp_similar函数

    1. -- 功能:查看字符串是否包含某子串,包含则返回1,不包则含返回0
    2. select
    3. regexp_similar('iuh()87%^&6888','.*[0-9]{4}') --是以40-9的数字结尾的字符串,返回1
    4. ,regexp_similar('iuh()87%^&6888dkfj','.*[0-9]{4}') --不是以40-9的数字结尾的字符串,返回0
  3. regexp_instr函数

    1. -- 功能:查看字符串包含某子串的位置,包含则返回首个匹配位置,不包含则返回0
    2. select
    3. regexp_instr('我的998','app') --不包含app,返回0
    4. ,regexp_instr('我的998app','app') --包含一个app,返回子串位置8
    5. ,regexp_instr('我的apple998app','app') --包含两个app,返回第一个子串位置5
  4. regexp_substr函数

    1. -- 功能:返回第一个匹配的子串
    2. select
    3. regexp_substr('我的apple998','[a-z]{5}') --返回第一个连续5个小写字母apple
    4. ,regexp_substr('我的aaaae998我的apple008','[a-z]{5}') --返回第一个连续5个小写字母aaaae
  5. regexp_replace函数

    1. -- 功能:替换所有匹配子串
    2. select
    3. regexp_replace('我的apple998','[a-z]{5}','pp') --替换applepp,结果为"我的pp998"
    4. ,regexp_replace('我的aaaae998我的apple008','[a-z]{5}','pp') --替换aaaaeapplepp,结果为"我的pp998我的pp008"

    权限控制

    1. -- 授予权限
    2. GRANT SELECT,INSERT,UPDATE ON Employee TO TD01;
    3. -- 撤销特权
    4. REVOKE INSERT,SELECT ON Employee FROM TD01;

    自定义函数(UDF)

    示例:(md5函数)

  6. 下载md5函数相关压缩包。

https://downloads.teradata.com/download/extensibility/md5-message-digest-udf

  1. 解压缩。

    1. unzip md5_20080530.zip
    2. # 进入src目录,并在该目录下编辑UDF安装脚本或执行BTEQ
    3. cd md5/src
    4. vi mdt_install.pl
  2. 编写Perl安装UDF脚本(或进入BTEQ执行)。 ```perl

    !/usr/bin/perl

my $bteq_rc = open(BTEQ, “| bteq”); unless ($bteq_rc) { print “Could not invoke BTEQ command\n”; return -1; } print BTEQ <<ENDOFINPUT; .LOGON 192.168.136.128/dbc,dbc; database syslib; .run file = hash_md5.btq; SELECT hash_md5(‘a’),hash_md5(‘b’); .LOGOFF; ENDOFINPUT

  1. 4. 执行脚本。
  2. ```bash
  3. perl mdt_install.pl
  1. 运行结果。 ``` +————-+————-+————-+————-+————-+————-+————-+—— SELECT hash_md5(‘a’),hash_md5(‘b’);

    Query completed. One row found. 2 columns returned. Total elapsed time was 2 seconds.

hash_md5(‘a’) hash_md5(‘b’)


0CC175B9C0F1B6A831C399E269772661 92EB5FFEE6AE2FEC3AD71C777531578F

+————-+————-+————-+————-+————-+————-+————-+——

  1. 6. 清理安装文件。
  2. ```bash
  3. cd ../../
  4. rm -rf md5

导入导出

导入(FastLoad)

FastLoad实用程序用于将数据加载到空表。 由于它不使用临时日志,因此可以快速加载数据。 即使目标表是MULTISET表,它也不会加载重复行。

局限性

目标表不应该有二级索引,连接索引和外键引用。

FastLoad如何工作

FastLoad在两个阶段执行。

  • 阶段1

解析引擎从输入文件中读取记录,并向每个AMP发送一个块。每个AMP存储记录块。然后AMP散列每个记录,并将它们重新分配到正确的AMP。在阶段1结束时,每个AMP具有其行,但它们不在行哈希序列中。

  • 阶段2

阶段2在FastLoad接收到END LOADING语句时启动。每个AMP对行散列上的记录进行排序,并将它们写入磁盘。释放目标表上的锁,并删除错误表。

示例

  • 定长方式导入

    1. LOGON 192.168.136.128/dbc,dbc;
    2. DATABASE DIF_dev;
    3. DROP TABLE DIF_dev.error_1;
    4. DROP TABLE DIF_dev.error_2;
    5. set record unformatted;
    6. DEFINE
    7. in_khzhgxxlh (CHAR(20))
    8. ,delim0 (CHAR(1))
    9. ,in_cjsj (CHAR(19))
    10. ,delim1 (CHAR(1))
    11. ,in_gxsj (CHAR(19))
    12. ,newlinechar (CHAR(1))
    13. FILE = fast_export.txt;
    14. SHOW;
    15. BEGIN LOADING DIF_dev.DIF_KHKZGXB0527
    16. ERRORFILES error_1, error_2;
    17. locking table DIF_KHKZGXB0527 for access
    18. INSERT INTO DIF_KHKZGXB0527 (
    19. khzhgxxlh
    20. ,nbbsh
    21. ,khzhlx
    22. ,khkzdh
    23. ,dqdh
    24. ,pzzl
    25. ,pzxh
    26. ,pzdh
    27. ,zhdh
    28. ,qkfs
    29. ,pzsyzt
    30. ,xyklb
    31. ,zjlx
    32. ,zjhm
    33. ,khxm
    34. ,yxrybh
    35. ,cjsj
    36. ,jingdu1
    37. ,cjgy
    38. ,cjjg
    39. ,cjxt
    40. ,gxsj
    41. ,jingdu2
    42. ,gxgy
    43. ,gxjg
    44. ,gxxt
    45. ,jlzt
    46. )
    47. VALUES (
    48. :in_khzhgxxlh
    49. ,''
    50. ,''
    51. ,''
    52. ,''
    53. ,''
    54. ,''
    55. ,''
    56. ,''
    57. ,''
    58. ,''
    59. ,''
    60. ,''
    61. ,''
    62. ,''
    63. ,''
    64. ,:in_cjsj
    65. ,''
    66. ,''
    67. ,''
    68. ,''
    69. ,:in_gxsj
    70. ,''
    71. ,''
    72. ,''
    73. ,''
    74. ,''
    75. );
    76. END LOADING;
    77. LOGOFF;
  • 可变长度导入

    1. LOGON 192.168.136.128/dbc,dbc;
    2. DATABASE DIF_dev;
    3. DROP TABLE DIF_dev.error_1;
    4. DROP TABLE DIF_dev.error_2;
    5. BEGIN LOADING DIF_dev.DIF_KHKZGXB0527
    6. ERRORFILES error_1, error_2;
    7. SET RECORD VARTEXT ",";
    8. DEFINE
    9. in_khzhgxxlh (VARCHAR(20)),
    10. in_cjsj (VARCHAR(19)),
    11. in_gxsj (VARCHAR(19))
    12. FILE = fast_export.txt;
    13. SHOW;
    14. locking table DIF_KHKZGXB0527 for access
    15. INSERT INTO DIF_KHKZGXB0527 (
    16. khzhgxxlh
    17. ,nbbsh
    18. ,khzhlx
    19. ,khkzdh
    20. ,dqdh
    21. ,pzzl
    22. ,pzxh
    23. ,pzdh
    24. ,zhdh
    25. ,qkfs
    26. ,pzsyzt
    27. ,xyklb
    28. ,zjlx
    29. ,zjhm
    30. ,khxm
    31. ,yxrybh
    32. ,cjsj
    33. ,jingdu1
    34. ,cjgy
    35. ,cjjg
    36. ,cjxt
    37. ,gxsj
    38. ,jingdu2
    39. ,gxgy
    40. ,gxjg
    41. ,gxxt
    42. ,jlzt
    43. )
    44. VALUES (
    45. :in_khzhgxxlh
    46. ,''
    47. ,''
    48. ,''
    49. ,''
    50. ,''
    51. ,''
    52. ,''
    53. ,''
    54. ,''
    55. ,''
    56. ,''
    57. ,''
    58. ,''
    59. ,''
    60. ,''
    61. ,:in_cjsj
    62. ,''
    63. ,''
    64. ,''
    65. ,''
    66. ,:in_gxsj
    67. ,''
    68. ,''
    69. ,''
    70. ,''
    71. ,''
    72. );
    73. END LOADING;
    74. LOGOFF;

    调用导入脚本:

    1. fastload < fast_load.fl;

    导出(FastExport)

    FastExport实用程序用于将Teradata表中的数据导出为平面文件。 它还可以生成报告格式的数据。 可以使用Join从一个或多个表中提取数据。 由于FastExport导出64K块中的数据,因此它可用于提取大量数据。

  1. 编写导出脚本。
    1. .LOGTABLE DIF_dev.fast_export_log;
    2. .LOGON 192.168.136.128/dbc,dbc;
    3. DATABASE DIF_dev;
    4. .BEGIN EXPORT SESSIONS 2;
    5. .EXPORT OUTFILE fast_export.txt
    6. MODE RECORD FORMAT TEXT;
    7. SELECT CAST(khzhgxxlh AS CHAR(20)),CAST(',' AS CHAR(1)),
    8. CAST(cjsj AS TIMESTAMP(0) FORMAT 'YYYYMMDDHHMISS' ),CAST(',' AS CHAR(1)),
    9. CAST(gxsj AS TIMESTAMP(0) FORMAT 'YYYYMMDDHHMISS' )
    10. FROM
    11. DIF_KHKZGXB0527;
    12. .END EXPORT;
    13. .LOGOFF;
    注意:
  • 日志表(示例为:DIF_dev.fast_export_log)无需提前创建,FastExport程序将自动创建并删除。
  • 数据卸载下来时如果要转型需要转换为char型,不支持转换为varchar。
  • 字段分隔符需要自行拼接(如上:“,CAST(‘,’ AS CHAR(1))”),无相关参数配置。
  1. 调用导出脚本。

    1. # 语法:fexp -b < inputfilename > outputfilename
    2. # -b : 输出简单的output
    3. # inputfilename : 导出脚本,一般以.fx为后缀
    4. # outputfilename : 输出日志
    5. fexp -b < fast_export.fx > fast_export.log

    常见错误

  2. [Error 3535] [SQLState 22003] A character string failed conversion to a numeric value.

    1. -- 解决方案1
    2. '${TX_DATE}' || ''
    3. -- 解决方案2
    4. CAST('${TX_DATE}' AS DATE FORMAT 'YYYYMMDD')
    5. -- 解决方案3
    6. TO_DATE('${TX_DATE}', 'YYYYMMDD')
  3. DBeaver中文乱码。

解决方案:
URL添加配置:“CHARSET=ASCII,TMODE=TERA,CLIENT_CHARSET=GBK”,如:“jdbc:teradata://192.168.136.128/DATABASE=dbc,DBS_PORT=1025,CHARSET=ASCII,TMODE=TERA,CLIENT_CHARSET=GBK”

参考

bbsmax:【Teradata TTU】Windows TTU安装工具列表
https://www.bbsmax.com/A/o75Nv4EX5W
博客园:【Teradata SQL】十进制转换成二进制
https://www.cnblogs.com/badboy200800/p/10553695.html