Skip to main content

Amazon Redshift

连接类型

ODBC(64 位)

支持类型

读取和写入、数据库内

验证版本

数据库版本:1.0.35649

ODBC 客户端版本:1.5.2.1002

如需详细了解 Simba Athena ODBC 驱动程序,请参阅 Simba ODBC 文档。

注意

为避免在将工作流保存到 Server 时发生错误,请选中

用于连接的 Alteryx 工具

标准工作流处理

数据库内工作流处理

受支持的身份验证方法

工具

基本身份验证

IAM 角色

Generic OAuth

读/写

将 IAM 与 Cognito 搭配使用

InDB

将 IAM 与 Cognito 搭配使用

批量

将 IAM 与 Cognito 搭配使用

OAuth With Identity Pool for Redshift

OAuth with Identity Pool for Redshift is only available with DCM. For more information, go to Leverage AWS Cognito-based Authentication for Redshift (Alteryx Community).

Azure AD 身份验证

Alteryx 为 Redshift 启用企业级身份验证,允许您在 Redshift 中访问数据时利用 Azure Active Directory 标识。

先决条件:

  1. Azure Active Directory 和 Amazon Redshift 之间的安全集成。

  2. Azure AD 用户已设置对 AWS Redshift 实例的访问权限。

如需详细了解如何将 Azure AD 与 Redshift 集成,请参阅社区文章。

配置 ODBC 连接

在 ODBC 数据源管理程序中...

  1. 选择 Redshift 驱动程序,然后选择配置

  2. 输入连接设置和凭证。

  3. 其他选项区域中,选择将所有结果检索到内存选项。

    注意

    此设置会将整个数据集提取到物理内存中。如果物理内存不足,此设置将根据数据卷和可用物理内存进行更改,您可能需要让 DBA 参与推荐设置。

  4. 选择确定以保存连接。

配置 Amazon Redshift 批量连接

通过 Designer 2024.1,Redshift 批量连接支持 AWS IAM(身份和访问管理)身份验证。

要通过“输出数据”工具使用批量连接...

  1. 选择写入文件或数据库下拉列表,然后选择其他数据库 > Amazon Redshift 批量

  2. 选择数据源名称(或者选择 ODBC 管理员创建一个)。查看ODBC 和 OLEDB 数据库连接

  3. (可选)输入用户名密码

  4. AmazonS3 区域中,输入或粘贴 AWS 访问密钥AWS 密钥以访问要上传的数据。

  5. 密钥加密下拉列表中,选择一个加密选项:

    • 隐藏:使用最少的加密隐藏密码。

    • 机器加密:计算机上的任何用户都可以完全使用连接。

    • 用户加密:登录用户可以在任何计算机上使该连接。

  6. 端点下拉列表中,选择默认值以允许 Amazon 根据您选择的存储桶自动确定端点。要为私人 S3 部署指定一个终端节点,或者如果您知道特定的存储桶区域,则可以选择一个终端节点(S3 区域),输入自定义终端节点,或从从十个先前输入的自定义终端节点中选择一个。

    如果您选择的存储桶不在指定的端点区域中,则会发生以下错误:“您尝试访问的存储桶必须使用指定的端点进行寻址。请将以后的所有请求发送到此端点。”选择默认值以清除错误。

  7. (可选)选择使用 Signature V4 进行身份验证,以使用 Signature Version 4 取代默认的 Signature Version 2。这将提高安全性,但连接速度可能会变慢。对于需要 Signature Version 4 的区域,此选项将自动启用。

    需要 Signature Version 4 的区域:2014 年 1 月 30 日后创建的区域仅支持 Signature Version 4。这些区域需要 Signature Version 4 的身份验证:

    • 美国东部(俄亥俄)地区

    • 加拿大(中部)地区

    • 亚太地区(孟买)地区

    • 亚太地区(首尔)地区

    • 欧盟(法兰克福)地区

    • 欧盟(伦敦)地区

    • 中国(北京)地区

  8. 选择一种服务器端加密方法以上传到加密的 Amazon S3 存储桶。如需详细了解 Amazon S3 加密方法,请参阅《Amazon Simple Storage Service 开发人员指南》

    • None (Default):不使用加密方法。

    • SSE-KMS:使用 AWS KMS 托管密钥的服务器端加密。酌情提供 KMS密钥ID。当您选择此方法时,使用 Signature V4 进行身份验证将默认启用。

  9. 存储桶名称中输入存储数据对象的 AWS 存储桶的名称。

酌情选择使用 Redshift Spectrum 连接到 Spectrum 表。

字段映射

将数据批量加载到 Amazon Redshift 时,如果工作流输出中的字段顺序与 Redshift 数据库中的字段顺序不同,则数据将写入不正确的字段。要解决此问题:

  1. 选择输出数据工具中的附加字段映射选项来配置它,即使您没有更改默认设置。在输出数据工具的工作流 XML 中,这将填充 <AppendMapping mode="ByName" /> 标记。

  2. 输出选项更改为覆盖表格(删除)

配置输出选项

您可以选择指定或调整以下 Redshift 选项。如需了解详情,请参阅 Amazon Redshift 数据库开发人员指南

注意

要使用输出数据工具创建 Spectrum 表,请指定架构和表格名称。

spectrum_schema.tablename

如果未为“分配样式”选择“键”,则忽略“分配键”。如果为“排序样式”选择了“无”,则忽略“排序键”。

  • :为“主键”选择列并调整列的顺序。

  • 分配样式:选择 EVENKEYALL

  • 分配:为“分配键”选择一列。

  • 排序样式:选择复合交错

  • 排序:为“排序键”选择列并调整列的顺序。

  • 启用 Vacuum 和 Analyze 操作:(仅限批量连接)默认情况下已启用。启用后,在将批量加载 APPEND 至 Redshift 数据库后,将执行 VACUUM 和 ANALYZE 维护命令。

  • 批量加载数据块大小(1 MB 至 102400 MB):为了提高上传性能,大型文件被拆分为指定整数大小的较小文件(以兆字节为单位)。默认值为 128。

  • 启用反斜杠 (\) 作为转义字符:(仅限批量连接)默认情况下已启用。启用后,紧邻反斜杠字符的字符将作为列数据加载,即使该字符通常用于特殊用途(如分隔符、引号、嵌入换行符或转义字符)。

重要

标识符在数据库中将折叠成小写。在查询结果中,表格名称和列名称默认以小写形式返回。如需了解详情,请参阅 Amazon 名称和标识符文档。

已知问题

  • 将记录插入 Amazon Redshift 表格时,如果该表格的列包含属性 IDENTITY(seed, step),则要插入的第一列的值为 Null,而不是传递到输出数据工具的值。