处理复杂的数据集成,你还在编写脚本吗?

处理复杂的数据集成,你还在编写脚本吗?

来源:凤凰新闻客户端

04:21

导语

当每个企业都在生成和访问多个数据源,集成平台可确保每个团队都拥有推动业务发展所需的数据。

打开凤凰新闻,查看更多高清图片

数据并不单独存在于一个数据库、文件系统、数据湖或存储库中。在记录系统中创建的数据必须满足多种业务需求,与其他数据源相集成,然后才能在分析、面向客户的应用程序或内部工作流中使用。例子包括:

来自电子商务应用程序的数据与用户分析、客户关系管理 (CRM) 系统中的客户数据或其他主数据源相集成,以建立客户细分并定制营销信息。

物联网 (IoT) 传感器数据与运营和财务数据存储相关联,用于控制吞吐量和报告制造过程的质量。

员工工作流应用程序把跨多个软件即服务 (SaaS) 平台和内部数据源的数据和工具连接到一个易于使用的移动界面中。

许多企业还拥有数据科学家、数据分析师和创新团队,他们越来越需要整合内部和外部数据源。开发预测模型的数据科学家通常会加载多个外部数据源,例如计量经济学、天气、人口普查和其他公共数据,然后将它们与内部数据源混合。进行人工智能试验的创新团队需要聚合大量且通常很复杂的数据源来训练和测试他们的算法。曾经在电子表格中执行分析的业务和数据分析师现在可能需要更复杂的工具来加载、加入和处理多个数据供给。

用编程和脚本处理数据集成

对于任何具有基本编程技能的人来说,将数据从源移动到目的地的最常见方法就是开发一个简短的脚本。代码从一个或多个源中提取数据,执行任何必要的数据验证和操作,并将其推送到一个或多个目标。

开发人员可以使用多种方法对点对点的数据集成进行编码,例如:

将数据变化推送到其他数据库系统的数据库存储过程

作为预定工作或服务来运行的脚本

当应用程序的最终用户更改数据时向服务发出警报的webhook

连接系统间数据的微服务

部署到无服务器架构的小型数据处理代码片段

这些编码过程可以从多个源中提取数据,在将数据传送到目标数据源之前加入、筛选、清理、验证和转换数据。

编写脚本可能是一种快速简便的数据移动方法,但它并不算是专业级的数据处理方法。生产级数据处理脚本需要自动执行处理和传输数据以及处理多个操作所需的步骤步骤。

例如,处理大量数据的集成应该是多线程的,并且对有许多数据源的工作也需要可靠的数据验证和异常处理。如果需要有效的业务逻辑和数据转换,开发人员应该记录这些步骤或采取其他措施来确保这些集成是可以被观察到的。

支持这些操作需求的脚本编程并非易事。它要求开发人员预测数据集成可能出现的问题,并相应地进行编程。此外,在使用很多实验数据源时,开发自定义脚本可能并不划算。所以最后,数据集成脚本通常难以在多个开发人员之间进行知识转移和维护。

出于这些原因,许多有数据集成需求的企业通常会寻找编程和编写数据流脚本之外的方法。

预告

既然用编程和脚本已经不能满足日渐增加和复杂的数据集成需求,那么企业应该如何应对?请持续关注《计算机世界》的干货分享

作者: Isaac Sacolick 是 StarCIO 的总裁,也是亚马逊畅销书《推动数字化: 通过技术实现业务转型的领导者指南》的作者 。 Sacolick 是公认的顶级社交 CIO 和数字化转型影响者。 他在 InfoWorld.com 、 CIO.com 、他的博客 Social 、 Agile 和 Transformation 以及其他网站上发表了 700 多篇文章。

编译:沈青初

排版:沈青初

审核:刘 沙