数据恢复基础范文

2024-09-09

数据恢复基础范文(精选12篇)

数据恢复基础 第1篇

1 大数据的概念

什么是大数据, IBM最早的定义是:将大数据的特征归纳为4个“V” (量Volume, 多样Variety, 价值Value, 速Velocity) , 或者说特点有四个层面:第一, 数据体量巨大。大数据的起始计量单位至少是P (1000个T) 、E (100万个T) 或Z (10亿个T) ;第二, 数据类型繁多。比如, 网络日志、视频、图片、地理位置信息等等。第三, 价值密度低, 商业价值高。第四, 处理速度快。最后这一点也是和传统的数据挖掘技术有着本质的不同。

在大数据概念中的第一条是数据量大, 这是大数据的特点, 而却随着信息系统应用的深入, 数量的数量级也在不断的提高, 这是毋容置疑的。我们在此要讨论的是第二条数据类型繁多的问题。

2 目前大数据应用存在的主要问题

随着信息化系统应用的深入, 在社会、自然界、生活中所涉及的数据面越来越广, 由此使得数据类型也越来越多, 数据类型的数量在不断增加, 这些数据类型之间的关系和相互关联性也越来越复杂, 大数据量下的数据应用造成了困难。数据结构类型繁多造成问题主要表现在以下几个方面。

2.1 数据类型是有限量的认识不清楚

未来大数据情况下, 数据类型是有限量的还是无限量的概念模糊, 为此首先要么明确一个基本的概念, 那就是, 数据类型在繁多, 但是数据类型的数量是有限量的, 只是这个限量的数量级大一些而已。在数据类型是有限量的情况下, 对于解决数据类型繁多的方法是完全不同的。

如果数据类型的量是无限量的, 那么解决问题的方法是要研究解决数据类型问题的方式是研究规律, 拿出解决问题的方式与方法, 对于具体数据类型时, 按照方式方法理论与技术去解决问题。如果数据类型是有限量的话, 那么解决问题的方式就不只是从理论上的解决问题方法, 而应该更加切合实际的去针对每一种数据类型直接进行研究, 形成数据标准, 指导各个系统对每一个具体数据类型的应用。

2.2 相同数据在不同系统中的表现类型繁多

由于系统开发方各自的开发经验、所开发系统的规模不同, 系统应用方对系统要求不同, 系统应用行业的不同, 使得在开发过程中, 对于数据类型的定义只遵循本系统使用需要进行定义, 没有完整的标准, 即是有相应的国家或国际标准, 也不能完全遵循。

2.3 各个行业制定的标准相互矛盾

各个行业在制定相应的标准时, 是以满足自身需要为主导, 造成了数据类型在其数据定义时不但长度不同, 就是数据类型都不相同。这也就造成了各个系统在未来大数据应用中出现了严重的数据应用障碍。

2.4 大数据应用的实现效率低

由于不同系统技术数据结构的不统一, 使得对于大数据的应用上要对不同系统的数据结构进行分析, 构建关联, 而后才能进行数据的应用, 这项工作的工作量大, 技术含量高, 降低数据的应用效率。这些都是事后分析数据存在的问题。

2.5 数据浪费巨大

由于数据各个系统间数据结构的不同, 加上分析手段的局限性, 使许多的数据无法进行使用, 由此也降低了数据的使用率。并造成数据的大量浪费。

3 造成目前对大数据应用存在问题原因

由于以上几方面的问题存在, 为了做好大数据的应用, 许多相应的技术应运而生, 数据仓库技术、网格技术、云计算的数据处理技术等等。这些技术促进了数据应用的发展, 提高了数据应用效率, 为大数据应用发挥了巨大作用。但是这种做法只能针对具体的大数据应用项目起到作用, 不能从根本上解决问题。那么造成这种问题根本是什么呢?

3.1 理论基础有偏差

目前所有这些高精尖技术的发展, 为大数据应用的发展起到了不可替代的作用, 但是这些技术在理论出发点上存在偏差, 那就是, 这些技术的理论出发点设定的是, 数据类型是无限量的, 是无穷尽的, 所以所有的技术研究都不面对具体的数据项, 这样做的结果是促进技术的发展, 弊端是不能面对具体的应用, 所有的技术应用都要在这就技术下进行二次应用研究。也就是, 这些理论是治标不治本的做法。

有限量数据类型与无限量数据类型是两个根本不同的概念, 对于技术的发展影响也是完全不同的。为此, 目前在无限量数据类型概念下的大数据应用技术与体系将会存在极大的局限性, 对未来的大数据应用造成影响。

3.2 对大数据认识有偏差

目前在各个系统对大数据的应用中, 对大数据的认识是, 只要有足够量的数据, 就是大数据, 而对于数据之间的关系, 整体的数据结构体系没有很深的认识, 甚至将原有的多个分散的系统中的数据库, 做一个小的关联数据库, 就认为是数据云计算, 就是综合数据平台了, 而在这种情况下, 对于大数据的应用, 因为系统的独立, 数据库的独立、数据结构的不统一造成了大数据应用的瓶颈和障碍, 在系统应用到一定程度后, 数据量是很大, 但是无法进行大数据应用, 或者说是要进行大数据的应用, 需要另外投入很高的成本进行数据整理、数据管理和数据分析。所以应该明确的是, 在数据结构混乱的情况下, 在大的数据量也不能称为大数据, 这个观念上的偏差, 是造成目前数据应用困难的原因之一。

3.3 数据结构不规范

这些情况的出现, 归结的一起, 就是数据结构不规范, 不统一。在三方面主要原因造成这个局面, 一是目前的应用系统的开发, 由不同的公司进行, 每个开发单位对数据结构的定义有各自的标准, 基本都是按照多年开发经验总结出来的, 因此各个公司开发的系统在数据结构上相差很远。二是对于同一个公司不同时期开发的系统所涉及的数据结构不统一, 到后期, 开发单位不愿意在投入成本对前期开发的系统进行重新开发, 这就造成了前期开的的系统中的数据结构与后期开发的数据结构不统一。三是对于应用开发单位在开发每一个具体应用项目时, 由于是不同的开发小组在进行, 为此, 在进行数据结构设定时, 只为了满足本系统开发的需要, 而没有考虑系统未来的发展和系统的整体架构, 这也造成了不同应用系统中对相同字段的设定不相同, 数据结构不统一。以上这些都是在应用系统开发过程中遗留的问题, 而这些问题严重影响了大数据的使用。

3.4 有统一的标准不用

在系统开发过程中涉及的数据结构, 许多都有相应的标准, 主要有以下几个方面, 一是国家法律层面的, 对于一些重要的数据要求以立法方式进行规范。二是国家标准, 制定和规范了国家层面的有关方面的数据要求和限定。三是部颁标准, 由各个部委办局制定的相应标准, 这些标准有一大部分直接针对信息化系统建设的应用和数据标准。四是行业标准, 作为每一个行业内进行行为约束的标准, 这种标准虽然不具备强制性, 但是在行业内是一个自觉遵守的标准。四是国际相关标准, 虽然国际标准没有任何的法律约束性, 但是为了走出去, 各行各业都在遵循这个标准。

这些标准都是在系统建立时的数据结构依据, 但是目前许多系统在进行数据结构设定时, 都没有按照这些标准执行, 而是根据自己系统的需要进行设定的。这使得许多的系统中的数据不能相互交换使用, 由此而影响了大数据的应用。

3.5 不同行业对标准的设定不统一

在国家标准体系中, 由于标准制定的年代不同, 同是一个部门颁布的标准对相同的数据要求也不同, 各个部门由于独立制定标准, 同样出现相同数据在不同部门制定的标准中规定的不同, 这几方面原因也就造成了即使遵照标准, 也存在着相同数据在不同应用系统中的数据结构不同的现象。

以上是大数据应用问题出现的主要原因, 作为大数据应用的刚刚起步阶段, 应针对这些问题进行研究给出相应的解决方案, 为未来大数据应用的发展打下一个良好的基础, 避免今后的大数据应用走弯路。

4 解决大数据应用问题的对策

解决大数据应用存在的问题, 应从最基础的数据结构建立开始, 从根本上去解决问题, 也为未来大数据应用的发展打下一个良好的基本数据结构基础, 对此提出以下几方面的对策。

4.1 开展和加强对基础数据结构建立的理论研究

从软件工程学的角度出发, 以数据结构类型是有限量的概念为依托, 围绕具体的数据类型开展数据结构体系的理论研究。依托一个数据结构分类的理论体系来支撑整个数据结构体系的划分, 其中包括划分方法、划分层次、划分的软件工程学理论支撑等内容, 制定大数据底层数据结构划分的理论体系, 形成在大数据下的数据结构构建的理论体系。

4.2 开展对具体数据结构的研究

按照建立的数据结构理论体系要求, 对每一个具体数据结构进行研究, 针对数据项的名称、类型、含义、层次、结构、与其他数据的关系、涉及内容规定等方面制定出具体数据的标准。这项工作可以在有组织的情况下由全社会共同参与, 按照指导理论的要求进行研究, 这样, 随着应用系统的不断深入, 所涉及的数据类型项将逐步扩展, 最终实现数据的全覆盖, 而完成整个架构体系的建立。

4.3 制定相应的数据结构标准

对于由各个方面制定的数据结构进行分类、筛选、审核, 而后想这些结构形成一个统一的架构体系, 制定相应的技术标准, 通过这个标准来规范应用系统的开发, 形成完整的、规范的、统一的数据结构体系, 为大数据应用打下坚实的基础。

4.4 成立相应的机构来负责这项工作的完成

对于这项工作的开展, 应在软件工程相应的有关组织下, 建立一个专门的机构, 负责指导这项工作的完成。由这个机构成立专门的实验室, 负责整体架构的制定, 数据类型项的搜集、分类、筛选, 并形成统一的数据库体系, 为所有的应用系统的开发提供数据库基础支撑和服务。

综上所述, 通过对基础数结构的研究与体系的建立, 从根本上解决大数据应用的效率, 充分发挥未来大数据的作用, 简化大数据应用的方式与过程。

参考文献

[1]严霄凤, 张德馨.大数据研究[J].计算机技术与发展, 2013 (04) .

[2]李学龙, 龚海刚.大数据系统综述[J].中国科学:信息科学, 2015 (01) .

统计基础数据总结 第2篇

县统计局:

根据你局《关于开展农村统计调查基础工作检查的通知》精神,结合我镇统计工作实际,对统计基础工作和数据质量进行了全面检查,现将情况总结如下:

一、统计基础工作及制度建设

1.统计人员坚持认真学习《统计法》及工作中的有关规定,按时按规定参加统计工作会议,2.对统计工作有安排、有落实,每年召开统计工作会议,对统计信息员进行培训;规章制度上墙并严格执行在统计工作中。

3.坚持实事求是,严格统计执法。认真做好统计调查、评估,按时按规定上报各种报表和表册,不闭门造车,对统计数据的来源做到平时抓和专门抓相结合,保证数据的真实性、可靠性。

4.认真搞好档案管理。将三年来的统计资料装订成册,整理归,档,建有统计台帐。

二、存在主要问题

1.统计台帐欠规范,报表数据存在笔误、漏项、合计错误和报表不整洁、档案不规范现象。

2.统计工作压力大,任务较多,各项普查、调查任务不断加重,统计人员力不从心。

三、下一步工作打算:

严格执行统计法,对检查出存在的问题于2011年9月底前全面完善;对今年各项指标任务的完成情况进行质量核实,保证任务完成,质量达到标准;按时、按质、按量完成统计业务工作。

四、几点建议

1.建立健全统计逐级培训制度。

2.加强农村统计工作制度的完善,充分考虑到基层实际情况,简化统计指标设置,避免指标重复。

数据恢复基础 第3篇

关键词:Web数据库;基础;数据库挖掘技术

中图分类号:TP311.13 文献标识码:A 文章编号:1674-7712 (2014) 06-0000-01

一、前言

随着经济的快速发展,科学技术也得到快速的发展,网络技术也取得了很大进步。随着人们对信息的需求量的增大,获取信息的渠道也逐渐向着多样化的方向发展,数据库技术在此背景下迅速发展。和传统的数据库不同,Web数据库结构较为复杂,包含大量的信息资源,要想对其展开更深层次的研究,需要用到数据库挖掘技术。

二、Web数据库的概述

(一)Web数据库的概念。Web数据库挖掘是互联网和数据挖掘技术应用相结合的领域,挖掘指的是Web在文档结构与使用的集合中形成的一种隐含的形式,也就是说采集文档中重要的信息资源,然后将其传输到用户端,其主要的功能包括输出功能与输入功能,通过利用计算机编程,能够把输入的资源进行解码和分析,并通过Web服务器的端口输出处理过的数据资源,最终通过互联网的接口把数据资源发送到相应的命令始发端口。

(二)Web数据库的类型。通常状况下,Web数据库挖掘技术的类型分为三种:Web结构挖掘、Web内容挖掘、Web使用记录挖掘,其中Web结构挖掘指的是从Web的文档结构、组织结构以及连接关系中挖掘潜在的模式与知识,并且系统能够对数据模式进行智能化分析;Web内容挖掘指的是从众多的Web数据中发现重要信息,并且采集重要信息,然后把采集的重要信息资源以链接或者网页的形式传输出去,通常状况下,挖掘的内容分为多媒体挖掘和文本挖掘,两者的差别在于提取的方式存在差异,但是最终的展现形式基本相同。

(三)Web数据库的特点。Web数据库挖掘技术的特点主要包括以下几个方面:其一,动态性强、具有多样复杂性,这中特点主要是由于Web本身是一个非常庞大而复杂的模型,数据库中包含了视频、音频、图像、图表、超文本数据、文本数据等众多数据资源;其二,半结构化,其是Web数据库挖掘的最大特点,由于Web数据库非常复杂,没有特定的模型模数,但是每一组数据资源之间都有属于自身的程序编码,其是一种不完全结构化的数据资源,因此其是一种半结构化数据;其三,分布式数据,由于互联网上分布着世界各地的Web客户终端,其覆盖面积非常广,形成了分布式数据源;其四,导构数据库环境,Web上的每一个站点都是一个数据库资源,每一个数据库资源都是一个导构节点,由于每个信息资源的节点不尽相同,致使每一导构节点上的组织和信息也存在一定的差异,进而形成了一个巨大的导构数据库。

三、Web数据库中的数据库挖掘技术分析

(一)数据预处理。如果没有高质量的数据资源,就不会产生高质量的数据挖掘效果,也就是说数据的质量直接影响数据挖掘的质量。在实际的Web中,数据资源是十分复杂的,其中既有高质量的部分,又有“肮脏”的部分。因此,基于Web数据库的数据库挖掘技术在采集信息的过程中,通常会遇到众多的问题,例如不一致性,主要是由于命名上出现了许多差异;带有噪音,主要是由于异常数据较多;数据不完整,主要是由于一些数据缺乏相应的属性值。因此,数据预处理是数据库挖掘技术必不可少的内容,能够针对不一致性、不完整、有噪音的数据资源进行预处理,然后在进行数据的采集,这样能够显著的提高数据挖掘对象的质量。

(二)数据识别。数据库挖掘技术的数据识别主要是依靠机器学习技术和统计法,通过采用挖掘算法识别数据,其中挖掘算法是一种常用的普通统计方法,例如网页浏览的时间、访问的次数等,通过序列模式分析。统计分析等,对挖掘的数据进行识别。此外,关联规则能够发掘客户对站点各个页面的访问关系,对用户的信息进行识别,能够根据用户的需求有目的的进行数据识别。通常状况下,Web数据可挖掘技术的数据识别都是采用统计方法,如果用户通过浏览器方位Web数据库站点时,数据库挖掘技术能够利用既定的模型对用户访问的站点以及访问关系进行统计。

(三)模式分析。模式分析的主要任务是借助操作工具以及技术手段,对所挖掘用户的行为模式进行解释和分析,然后从中选择出最有价值、最合理的模式,这样能够帮助分析人员理解相应的数据信息,使挖掘出的所有模式能够被充分的利用。

四、Web数据库为基础的数据库挖掘技术的应用

(一)搜索引擎领域的应用。以Web数据库为基础的数据库挖掘技术是搜索引擎领域的关键因素,通常情况下,大多数的人会通过使用搜索相关房爷的方法获取相应的信息,因此,数据库挖掘技术在搜索引擎领域的应用,能够实现对网页进行归类和划分,进而实现分类网络信息的搜索和浏览。

(二)电子商务领域的应用。在电子商务领域中,数据库挖掘技术能够挖掘用户关注和访问的所有信息,然后根据收集到的信息对用户进行分类,然后对用户的兴趣以及特征进行分析,更加深入的了解用户的相关资料,这样便于为用户提供更加全面、便利的服务。

(三)网站设计领域的应用。在进行网站设计时,采用数据库挖掘技术能够挖掘网站中的重要内容,尤其是文本内容,能够更好的进行网络信息的规划和组织,并且能够铜鼓挖掘网络用户的访问记录,及时、准确的了解用户的需求,进而制定针对个人的网站和信息。

五、结束语

Web数据库是目前规模最大的数据信息库,为以Web为基础的数据库挖掘技术提供了良好的发展环境。由于数据库挖掘技术显著的提高信息检索的效率和准确性,并且能够为网站设计领域、电子商务领域、搜索引擎领域等提供个性化的服务,致使其具有广阔的应用和发展前景。

参考文献:

[1]曾霖.基于 Web 数据库的数据库挖掘技术探究[J].软件,2013(02):58-59.

[2]艾孜海尔·江艾合买提.基于Web数据库的数据库挖掘技术分析[J].科技向导,2012(27):67.

数据恢复基础 第4篇

1 Oracle数据库的介绍

Oracle数据库这种管理系统是一种关系型的数据库。Oracle数据库这种关系系统在运行中具有比较好的移植性, 在使用期间方便、快捷, 而且功能性也比较强, 它在各种微机环境下都能适用。 所以它对于数据库来说, 是一种可靠的、 效率比较高的、 适用性比较强的解决方案[1]。Oracle数据库具有一个完整的、系统的、处于世界地位水平之上的数据管理功能, 它在数据库管理功能中进行处理的方向上实现了分布式管理, 在进行更合理的运用和创造过程中, 就要进行系统的学习和研究, 从而掌握Oracle在各个机型中相关的技术知识。 Oracle数据库在功能管理中有很多特点, 这种完整性的数据管理系统在应用中能够将大量的数据合理的进行解决和处理, 实现数据的长期保存, 还能进行数据的实时共享, 从而保证数据在应用中的安全、可靠性。 Oracle这项技术的产生已经开始应用到各个领域, 特别对于一些计算机专业的毕业生具有较大的就业前景, 主要具有两方面的优势。 一方面, Oracle这项技术的就业面比较广, 这项技术应用在各个企业单位与相关政府机构, 在金融行业、电信行业以及政府中的发展更久远、发展的目标更强大。另一方面, 选择的职业方向也更多, 学好Oracle这项技术以及将它应用在对数据的管理方向上、对系统的开发方向上、对数据模型的建立方向上等。

2 Oracle数据库的备份模式

Oracle数据库在备份方式上主要有三种标准模式。 分别为脱机备份、联机备份以及逻辑备份。 脱机备份与联机备份这两种模式都属于物理备份, 它在进行分化过程中是通过数据库的工作模式来完成的。脱机备份也成冷备份, 它属于非归档模式的一种;而联机备份与之相反, 它又称热备份, 这是企业常用的一种备份方式, 通常使用RMAN备份工具, 制定备份策略, 定期备份, 属于归档模式的一种。 这两种模式在Oracle数据库的物理备份中同属于一种模式[2]。 这两种物理备份在数据库分析中只是针对文件进行的, 对一些逻辑主要内容并不考虑。对于逻辑备份来说, 这种备份方式是实现文件的形式拷贝, 是导入与导出两种备份模式的产生, 是文件进行读取与文件写入的两种方式, 由于它们所处的位置不同, 所以在读取与引入中产生的数据不同, 所以者三种备份方式在操作系统中比较重要。

2.1 脱机备份

脱机备份在操作系统中, 主要是通过拷贝技术来进行的, 如果数据库出现关闭期间, 都可以将数据库中的所有数据进行复制, 从而保障因故障产生丢失数据的现象。这种拷贝技术还可以还原数据库中的文件, 从而保障文件在运行中的稳定状态。 数据库中的这些文件也可以进行全部备份, 特别是数据库中的所有文件、控制文件、数据库在运行中的日志文件[3]。但脱机备份在备份期间要注意到, 必须将数据库关闭才能进行备份, 如果没有关机就进行备份, 执行的数据库文件就不能有效的实现备份。具体的脱机备份方式在操作过程中必须要在系统能够提供的服务管理器下运行, 首先要关闭正常的备份, 然后将整个数据库备份到一个目录或文件夹中, 最后启动数据库。 实现的脱机备份方式速度比较快, 归档的方式也比较方便, 但在备份期间, 数据库只能进行备份, 并不能实现其他的数据库任务。

2.2 联机备份

联机备份是在没有用户对数据库进行访问时进行备份的, 它是一种不一致备份方式, 是在数据库文件与控制文件读取期间进行的不一致备份。 因为有些数据库在运行中是不能进行关机的, 在这种情况下要进行数据的备份模式, 就要对数据文件进行不一致的者表空间。 联机备份在形成方式上主要有完全备份与增量备份, 对于完全备份来说, 它是一种集中备份的数据模式, 但不包括那些不常使用的数据。如果在归档期间进行备份时, 日志文件与控制文件发生重做现象, 这期间数据库服务器就会备份所有的文件。 对于增量备份来说, 它只对已经被修改的文件进行备份。联机备份在数据文件与空间上进行备份实现的速度比较快, 用户不需要关机就能执行备份。 但联机备份在进行期间, 要实现良好的备份表空间状态, 就要将原来的状态实施恢复, 从而保障数据库再进行启动时免受覆盖的现象。

2.3 逻辑备份

逻辑备份主要是导入与导出两种数据库模式。对于数据库的导出来说, Oracle中的程序用来读取和输出的, 它可以将数据库中保存的信息导出到指定的位置。 逻辑备份在操作方式中主要有三种情况, 一种在导出中要对指定的表进行备份, 一种在导出中利用全库方式对所有的对象进行备份, 另外一种在导出中将用户要指定的所有数据进行备份。 在导入数据库过程中, 由于它是一种逆过程所以要先将导出文件进行读取, 然后才能恢复数据库[5]。

3 Oracle数据库的备份研究

3.1 管理好备份中所需要的储存介质

为了防止原有的备份数据库丢失, 在备份期间就要管理好所需要的储存介质, 可以将备份中的主要内容、日期以及介质的编号进行整理和分类, 以免在恢复时弄错介质。对需要的储存介质进行备份, 为了避免在实际工作中出现损害的现象, 最好备份两份以上, 如果发生这种数据丢失现象还可以利用另一份将数据库进行恢复。已经备份好的储存介质还要与计算机设备放在不同的地方, 以防止因意外事故发生影响计算机损坏。

3.2 设置好数据库的归档模式

当数据库在Non Archive Log模式运行期间, 要实现一致性的数据库备份方式, 在备份期间一定要先关闭, 不能运用联机中对日志的存档进行重作, 在数据库恢复的时候只能恢复到最近的一次备份点, 以免在Oracle数据库失败期间还可以将最近的数据库进行备份。当数据库在Archive Log模式运行期间, 不仅要对数据库实现一致性备份, 还要对数据库的打开情况进行备份, 这种情况下要运用联机备份方式。这种备份数据库的联机方式、日志文件的存档重作方式, 不仅能使用户在提交上恢复了所有的数据, 保证日志在时间与系列号处的恢复和整理, 而且利用归档模式下的有效备份, 可以将数据库恢复到某一个时间点, 还使数据在恢复中增加了灵活效果, 防止故障发生期间导致数据的丢失现象[6]。

3.3 备份多个控制文件

根据数据库控制文件的多元化, 在Oracle数据库备份与恢复过程中, 要实现控制文件的多个备份方式, 主要表现在两个方面。 一方面, 对多个控制文件进行备份主要利用在不同的物理磁盘上, 因为控制文件在数据库备份方式上, 主要是运用Oracle数据库来引导的, 所以实现多个控制文件的备份方式, 不仅能够使物理磁盘在发生故障期间得到有效的保障, 还能使其他的控制文件在运营上实现数据库的恢复处理。 另一方面, 进行定期的联机备份操作, 主要对备份的数据库文件、控制文件以及归档日志文件。在备份对数据库文件期间, 备份的频率、恢复数据的时间具有明显的差异, 如果数据库文件在备份时发生的频率比较高, 在恢复数据库过程时, 日志信息改变的也就越少, 所恢复的时间也就越短。

4 Oracle数据库的恢复

数据库在恢复中的实现技术, 它在恢复过程中。首先, 将数据库恢复到原有备份状态上, 然后, 根据已经备份好的数据, 在日志事物中进行归档和重做, 从而使副本文件更新到失败之前的数据库状态。 恢复数据库这种方法的利用主要分析存在的问题, 本文从实例恢复与介质恢复两种方式[7]上进行阐述。

4.1 实例和崩溃恢复

对于实例故障的恢复来说, 它经常出现的故障现象是由于电源问题导致的服务器不可用现象、由于CPU出现的故障问题、由于内在故障问题以及Oracle数据库在后台运行中出现的故障问题。这种恢复方式为了使数据库更准确、一致, 不仅可以将所有数据输入到数据文件中, 还可以将所有没有提及到的数据以及事物回退掉, 在进行实例恢复期间, 整个过程都是利用Oracle系统来完成的, 它改变了人力在数据库上的执行操作, 实现了自动化的系统模式。 进行实例和崩溃恢复的主要目的, 主要将失败的实例实现缓存、重做线程, 它在已经记录的、关闭的信息中来实现的。这种方式在运行中是一种自动化、重做信息的接受方式, 如果Oracle系统在内部中出现实例和崩溃故障, 它能够实现自动数据的恢复, 而不需要人为来实施操作。

4.2 介质恢复

介质恢复这种操作方式是Oracle数据库在使用管理中常见的, 这种形式主要是数据文件的介质恢复与块介质恢复[8]。对于数据文件的介质恢复来说, 它主要对发生损坏与丢失期间的数据进行恢复, 也能对不使用Offline Normal选项离线进行恢复。 在一般情况下, 由于实例恢复与介质恢复在数据文件中能够保证数据库的完整性, 所以对数据文件进行介质恢复期间, 不仅需要还原以前的受损文件、使用归档和在线进行重作日志, 还需要利用人工直接干预、需要将数据库中的错误介质自动启动以及将Oracle系统内部中的控制进行恢复等。对于块介质恢复来说, 由于它是运用RMAN进行的一种独特介质恢复系统。当数据库处于可用在线期间就要还原数据块;如果数据文件中部分数据块处于限制、损坏状态, 就要进行故障解决。

随着系统化技术的不断发展变化, 数据信息的安全性越来越重要, 要提高数据信息的安全保障。 就要对Oracle数据库的备份及恢复理论进行有效的学习, 意识到数据的重要性, 根据实际的数据运行情况, 从而找出相关方式进行解决。

摘要:Oracle数据库系统在业务数量上比较大、对数据的储存空间也比较大, 它是一种系统性的数据库系统。它在运行上可以进行多种平台的操作方式, 目前在我国应用于各个领域。如果要使数据库能够安全、稳定的运行, 在数据应用范围上就要注意到, 对数据的管理工作要进行实时的备份工作和恢复工作。文中, 介绍了Oracle数据库的含义, 阐述了Oracle数据库在备份工作于恢复工作中的重要模式, 不断进行讨论和分析。不仅避免了数据信息的丢失现象, 也保证了数据库技术在信息时代中的建设地位。

关键词:Oracle数据库,备份与恢复,理论基础

参考文献

[1]黄奕华.Oracle数据库的备份及恢复技术的研究与应用[J].办公自动化, 2015, 04:32-35.

五羊本田基础数据操作体会 第5篇

说实话,一开始,我并不能理解我们上这种课有什么意义,就是简单的复制-粘贴的循环。就这样百无聊赖地上完了几节课„„

然而,也就是在这机械般的动作中,我也在寻找着未被发现的乐趣。在复制-粘贴的过程中,我们也会注意这些数据,这些资料是干嘛用的,然后跟五羊 –本田这一典型的加工装配型企业的运作流程相联系。于是,我对这个企业也多少有点了解了。比如说,企业的宗旨是“服务至上,追求卓越”,假设市场需求都有保障条件下,企业采用直线职能制组织结构,强调决策的重要性,管理的核心是有效的协调,以充分发挥管理资源的作用,逐步追求采用精良管理,虚拟公司等计算机管理方式方法,运用权变理论,不断完善企业管理,最终以实现企业价值最大化为奋斗目标。

通过几节课的模拟实习,我了解了五羊-本田这个企业的基本数据了,以及各职能部门和他们之间相互协作、运转。这位我们以后参加工作提供了一定的准备,尽管说我们现在觉得好像没什么关系。比如说,我们在参与营销、技术、采购、设备、生产、品质、仓库、财务、人事等各个环节的实际操作过程中,我们对各职能部门是怎么运作的,部门间的关系是怎样协调的就不会感到陌生了。此外,我还了解到:如果把企业作为整体系统适应外部环境变化的条件,应该如何有效地进行现代企业管理的运作。

事实上,我们在模拟实习的过程中发现,这些基础数据都分的很细,分成一个个功能模块,有基础数据模块、营销管理模块、技术管理模块、采购管理模块、设备管理模块、生产管理模块、品质管理模块、仓库管理模块、财务管理模块、人力资源模块等,而这每一块功能模块也有很明细的数据资料。因此,对每一个功能模块操作,我们也得细心谨慎。同样,在对每一模块的操作过程中,我们也对这些个模块的了解也是不言而喻的。每一模块在企业中都有其应有的作用,而且是独一无

二、不可替代的。例如,基础数据在企业管理中发挥着重大作用;掌握销售合同的签订,按客户订单组织生产的一般流程,了解售后服务的主要业务,明确营销管理在企业管理中的重要地位同样是不可或缺的;提高对人本管理重要意义的认识,掌握员工招聘、录用、使用和业绩评价的一般流程,并能整合所学的管理理论知识,掌握现代企业管理的实用工具与方法,成为企业所需要的实用管理人才也是很重要的。

楼市调控还得有基础数据 第6篇

日前笔者去香港小住了10来天,回来一看,此前跌得最凶的地产股涨势不错。例如,沪市地产指数从7月初最低1148点最高涨至1327点,涨幅达14%,地产龙头万科这十采天也涨了约10%,远远超出大盘的平均涨幅。

与此同时,各方对房产调控的争论也越来越激烈:有说房价16个月来环比首次出现下跌,足见调控已卓有成效,地产股已可阶段建仓;有几部委一起出来辟谣说,楼市调控政策决不松动;更有人说楼市调控决不会成为“百日维新”,地产新政还得从严再从严……

楼市走向究竟如何?将上海与香港作一比较倒是蛮有意思的。由于笔者有家人在香港工作,所以时不时会去那里住上几天。本世纪初,香港和上海的楼价之比基本是10:1,而令大概在2.5~3.0:1。请教当地一些朋友,都说香港房价涨不动了,其中最有说服力的一个理由是,家庭增长率自1997年后基本呈回落态势,而从1980年代末期起住宅增长开始超过家庭增长。截至2009年底,香港拥有永久性住宅251.6万套,家庭231.1万个,即住宅超出家庭数约20万个,而在20世纪90年代约超出lO万个。这就是说,住宅与家庭户数相比基本呈供过于求状态。

朋友们分析说,回归不久后,曾有不少人预测一批港人子女会来香港定居,结果这一情形并未发生,开始不少人选择香港工作,深圳买房居住,如今深圳和香港的房价也差不多了。今年上半年深圳房价最高时,有人甚至准备卖掉深圳的住宅,再买进香港房产。

笔者的朋友并非地产专业人士,但港府的信息十分透明,人们只要上网一查就心知肚明。那么,上海的情形又如何呢?笔者查阅了很久也不知上海现在有多少套住宅,在上海统计局网站上看到的最新数据也就到2008年底。数据显示,自1978年到2008年,上海的家庭从291.69万户增至506.64万户,30年来增长73.69%,其中1984-1989年家庭年增长率始终在3%以上(最高为1987年增4.18%),此后增速逐渐回落,2001年后基本都在1%以下(仅2005年增1.25%);另一方面,户均人口也从1978年的3.8人减至目前2.7人(从2005~2008年已连续4年下降)。这就是说,上海家庭高速增长的年代已经过去。现在上海增长最快的是外来人口而非户籍人口:从2000年到2008年,户籍人口从1309.63万人增至1371.04万人。只增加了60多万人;外来人口则从299万人增至517.42万人,增加近220万人。

还有一个数据也非常值得关注,在上海人的住房结构中,比例最高的是两类房子:商品房占39.1%,房改私房占37.8%;另外,租赁公房也占17.4%(因各种原因房改时不能买下产权)。这就是说,上海入住商品房的也不过四成左右,还有很大一部分人住的都是老房子需要改善。

ERP系统基础数据探讨 第7篇

企业管理的最终目标是希望投入最少的人力、物力、财力实现优化和合理配置企业资源,用最少的投入得到最大的产出。通过合理配置资源不造成任何物料的浪费,控制成本,也不造成任何物料的缺货,给企业的生产带来影响。企业资源指的是企业进行正常生产经营活动必不可少的物质因素,包括各种机器设备、人员、仓库、客户、供应商等,还包括企业生产的产品,生产产品所需的原材料、零件、组件、部件、半成品、最终成品等物料。企业没有实现ERP管理时,通过人工方式很难实现资源的优化和配置,ERP是企业管理的一个很好的信息化工具,当企业发展达到一定规模时,通过人工方式或是一些旧的管理信息系统已经很难管理企业的各种资源,企业各部门信息不能共享时,企业就要考虑上ERP,通过ERP来管理企业资源,ERP也是企业实现信息化管理的一个最重要的建设。企业用ERP系统管理企业所有的内部和外部资源,进行资源的整合,各部门人员能共享企业资源,企业高层人员更具ERP系统提供的各种报表做出最合理的决策。但在ERP运行中,离不开基础数据,基础数据是ERP正常运行的所必须的参数数据,ERP将企业所有的内部和外部资源通过基础数据表现出来。所以,一个企业要能成功的实施ERP,必须要成立专门的数据小组制定合理的编码、合理的划分、定义及其属性的设置,数据的不正确会导致ERP运行的失败,给企业带来巨大的损失。

2 基础数据的编码

无论是输入部门、仓库、客户、供应商、各种物料等数据,都要输入一个唯一标示这些资源的编码,在实施ERP之前,要成立一个专门的数据小组制定各种资源编码的规则,多个部门共同参与,探讨本企业客户、供应商、仓库、物料等数据的编码规则,每个企业的编码规则都是不一样,但都要符合编码的基本原则:

1)唯一性原则;因为要通过编码来标示每一个资源,所有任何资源的编码都是唯一的,不重复的,就像学生的学号、每个人的身份证号码一样;

2)正确性原则;既能满足企业自身的需要,又能满足企业合作伙伴的特殊要求,还要符合国际惯例,国家、行业的规定。就像条形码一样,商品的条形码一般都是13位,但前三位都是表示商品的产地,最后一位是校验码。任何商品的13位条形码的设计得符合国际规定;

3)分类性原则,例如:客户编码时按省份分类,BJ01,BJ表示是北京地区的客户;

4)统一性原则;编码规则要统一,整个企业共同使用一套编码,每个部门都要统一按照制定好的编码规则进行编码。

3 数据属性的处理

每一个数据除了要输入重要的编码外,还要输入一些很重要的基本属性,在这些基础数据中,物料是最重要的一个基础数据,在物料清单(BOM)中、工艺路线中要输入相关的物料,所以物料是一个比较重要的基础数据,也是一个较复杂的数据。在描述任何一个物料时,都涉及到很多的属性,在金蝶K3系统中,物料属性主要划分为物料的基本资料、物流资料、计划资料、设计资料、标准数据、质量资料、进出口资料、图片、条形码项目属性,每一个项目属性中有包括了众多的具体的属性。例如在物料的基本属性中,涉及到最低存量、最高存量、安全库存数量属性,为了更好的分析物料的库存情况,加强物料库存数量的控制,就得通过这些属性值来实现库存管理的目标;在计划资料项目属性中需求时界、计划时界属性值,在编制主生产计划(MPS)时就要用到这些值来算出每个时段的毛需求量。还有很多其他的物料属性值对企业的业务管理都有不同的作用。数据输入人员在输入这些基本属性时一定都要输入正确,否则会影响ERP系统的运行。

4 BOM的创建

BOM是物料清单的英文简写,BOM描述了一个最终产品、部件、组件、零件、原材料之间的结构关系以及所需的数量,也是ERP系统中最重要的基础数据之一。要准确的创建物料清单,肯定离不开之前所准确定义的各物料,物料的编码和基本属性是创建BOM的前提工作,BOM的创建又是物料需求计划计算的前提工作,所以每一步基础数据的描述都要是符合企业情况和准确的数据。BOM的创建还离不开企业设计部门对产品的设计,通过设计部门设计的产品结构图,了解到产品所需的全部部件、组件、零件、原材料清单,从而产生单阶BOM,在此基础上,ERP系统将会自动生成产品的多阶BOM。

5 结束语

除了以上所提到的基础数据,还有工作中心、工序和工艺路线基础数据的描述,不管是哪个基础数据,都将会是ERP系统后续运行所必不可少的参数数据,时刻记住,ERP系统成功的运行离不开正确的基础数据的描述,一个企业要想成功的实施ERP系统,一定要成立一个专门的数据小组,制定合理的规则,多个部门共同参与,各种基础数据的描述是一件很令人烦的事情,操作人员一定要有耐心、仔细的输入每一个基础数据,才能保证系统的正常成功的运行。

摘要:该文主要阐述了企业资源和ERP系统基础数据的关联。阐述了基础数据中编码描述的重要性,任何一个数据的编码都要制定合理的规则,在众多的基础数据中,其中物料数据的描述较为复杂也很重要,BOM的创建要遵守一定的规则。

关键词:企业资源,基础数据,物料

参考文献

[1]闪四清.ERP系统原理和实施[M].2版.北京:清华大学出版社,2008:36-54.

[2]肖玉,周磊.ERP原理、实施与案例[M].北京:清华大学出版社,2008:30-50.

[3]程国卿,吉国力.企业资源计划:ERP教程[M].北京:清华大学出版社,2008:34-56.

[4]朱江,陈小鹏,韦海英.企业资源计划(ERP):原理.实施.应用[M].3版.北京:电子工业出版社,2012:20-45.

基础数据计费系统开发 第8篇

旧的数据计费系统基本上与本地网计费系统独立, 数据来源于营业每月提供的文件数据, 通过FOXPRO小型数据库进行处理的一套独立的数据计费系统, 最后生成托收/现金清单给帐务部门。基于温州本地网集中计费项目的开展, 数据计费作为总体需求的一部分, 需要进行资料的统一维护与集中批价, 实现缴费平台的一体化。为了实现这个需求, 笔者把新数据业务计费系统搬到了ORACLE大型数据库里, 进行了总体规划设计, 设计了新的数据业务计费流程和库表, 并与中望公司一起开发程序代码, 经过两个月的开发测试后, 正式投入使用。

1 系统开发的背景和要求

原有的数据计费是独立于本地计费系统, 在FOXPRO数据库里进行的, 当时数据业务种类还不是很多, 用户数量也较少, 数据库设计比较简单, 无法实现资料的网络共享, 所以已经不能支撑当前市场发展的需求。

(1) 由于数据业务的多样性、繁琐性, 数据计费的用户资料一直无法输入97系统, 用户资料的维护都得通过独立于本地网的单机小型数据库FOXPRO记录维护, 这样资料无法做到共享查询和维护, 无法适应数据业务的快速发展。这就需要数据计费系统提供用户资料、协议等信息的维护和查询。为此, 在营收系统后台搭建了一个方便受理人员录入数据业务各相关资料的平台, 并与数据用户资料库表相连, 可以直接查询、修改用户资料, 并对历史修改记录进行保留以方便检查。

(2) 各种数据业务的计费方式都有所不同, 2M/GX是根据电信与用户的协商决定价格和优惠比例的。而FR/DDN/PAC则是根据速率、业务类型和优惠比例等计算得到, 这就要根据不同的数据业务制订不同计费方法。原来的FOXPRO需要很多人工接入的地方, 而且没法实现同一用户不同时期帐单统一查询和比较。笔者在ORACLE系统里面设计了清单表, 体现了同一用户在不同帐期的费用和同一帐期里不同用户的费用, 方便了比较, 确保了计费的正确性。

(3) 数据业务存在收费的分摊方式, 如一条FR专线 (温州至杭州) 总费用为1 000元, 温州电信收用户端口费用200元, 双向线路费用800元由用户交给了杭州电信, 那温州应该从杭州电信拿到一半即400元的线路费用, 这个费用我们称为应收款。同样, 如果用户是把800元缴给温州电信, 那么其中有400元是温州电信代杭州电信收的, 要还给杭州电信。原有的计费方式都是人工统计得出付给和收回对端的费用, 对于分摊结算都是在纸张上完成, 查询起来比较麻烦。为了支持系统处理相关的分摊, 每条电路都新增了一个对端用户的资料, 这样与每个地方的结算都一目了然。

(4) 由于数据业务是独立于计费系统的, 前台无法查询相关的资料, 无法在前台统一缴费。这样用户在交纳电信费用的时候就可能没有缴数据业务的费用, 而且营业员无法提醒用户, 给用户缴费带来诸多麻烦, 对电信收费也带来很大的困难。为了解决这个问题, 笔者通过把数据业务帐单表按合同号、设备号并入本地网计费系统总帐单表, 合帐后与本地网计费系统进行统一销帐。

2系统开发设计模块

根据新的设计要求, 笔者和中望公司的一位人员一起合作进行了系统程序开发和程序测试工作。新版数据计费系统包括资料前台维护、数据业务计费批价和数据业务合帐3个处理模块。系统总流程图如图1所示。

(1) 数据资料 (包含客户协议、用户资料等) 统一维护。数据资料维护包含用户资料、协议资料的录入和更改 (即业务上的装机、拆机、提速等资料处理) 。包括如下:

当用户申请数据业务时, 需要在帐户资料表和用户资料表添加新记录, 其中, 用用户资料的state为F0A, completed_date[竣工时间]为竣工时间, change_date[变更时间]为空, price_date[上次批价时间]为空, state_date[录入时间]为录入时间, Up_flag[提速标志]为0。

当用户修改资料属性时, state_date更改为修改时间, 其它字段根据实际情况修改, State、completed_date、change_date、price_date、up_flag不变。

当用户取消数据业务时, state修改为F0X状态, state_date修改为当月时间, change_date修改为真正拆机的时间, complted_date、price_Date、up_flag不变。

当用户提速时, 第一步:把当前用户资料的state修改为F0X, 把当前用户资料的up_falg修改为1 (提速前) , Change_date修改为提速时间, State_date修改为当月时间/修改时间;第二步:追加一条用户资料, state为F0A, up_flag置成2, completed_date为提速时间, State_date修改为当月时间。提速处理中, 如果在15日前提速, 收提速后一个月的费用, 如果在15日后提速, 提速前后各收半个月。注意:如果一个月进行多次提速, 把最早的一条state=F0X, up_flag=1的修改为up_flag=9[无效记录], 再把第一次提速后的资料修改为up_falg=1, state=F0X, 然后追加一条up_flag=2, state=F0A的资料。

(2) 数据业务计费, 支持按费率、优惠规则进行批价 (包含费率、优惠规则的维护) 。

结合温州实际情况, 每个数据业务对应单独的处理模块。2M/GX的计费根据前台录入的月租、优惠比例计算得到。FR/DDN/PAC计费根据速率、业务类型、资费类别匹配费率表 (DDB_TARIFF) 得到, 且FR/DDN这两个业务都有新旧资费的区别。

计费程序用pro*C语言编写, 名为ddprice, 目录名为$CWBMJF_HOME/bin, 通过参数输入, 它可以对任意一个数据业务或所有数据业务执行计费处理, 给实时计费和测试提供了方便。

数据计费程序包含如下:ddprice.pc为MAIN部分, ddpro.h ddpro.pc为核心处理部分, dinit.pc为初始化部分。其处理流程如图2所示。

其中ProBill (DdType) 为详单处理流程, 根据不同业务, DdType选择不同的流程进行处理。处理流程包含ProBill_2m、ProBill_gx、ProBill_fr、ProBill_ddn、ProBill_pac、ProBill_vpn。

以下对ProBill_fr进行举例说明:

根据dd_type、busi_type、price_type、pvcrate (在b_pvcrate和e_pvcrate之间) 匹配ddb_tariff表, 找出tariff_id, 然后计算pvcrent (新资费需要*2) [月租费]。

计算月份数 (CalcMon) , 正常用户 (state=F0A) 计费单位数目=1, 新增用户的装机日期completed_day, 如果是15日以后收半个月租费, 15日以前则收一个月租费, 因为资料报竣可能会延迟, 还要计算竣工月份到计费月份的月份数DiffMon来判断要收用户几个月租费。拆机用户的拆机日期change_day, 如果是15日以后收一个月租费, 15日以前则收半个月租费。提速用户在提速前的up_flag=1, state=F0X, 如果15日以后的不收, 15日以前的收半个月租费。提速用户在提速前的up_flag=2, state=F0A, 如果15日以后的收1个月租费, 15日以前的则收半个月租费。

进行分摊处理 (CalcPay) 。根据pay_type字段确定分摊类型和分摊算法, 分摊类型有10种。在帐单表里fee1、fee2、fee3、total是根据费率计算好的费用, 分摊后向用户收取的费用为charge, 是根据total、pay_type算出来的, yskuan为应收费用即向对端用户收取的费用是根据total、pay_type算得, dskuan为代收费用, 即是温州电信代对端收取的费用, 需还给对方, 不能计入收入的部分也是根据total、pay_type算得。

(3) 按合同号进行合帐, 与本地网计费系统进行统一销帐。数据合帐是对数据批价、优惠后清单的汇总, 根据合同号字段acct_id和帐目类型字段acct_item_type进行合帐。根据数据业务的用户和帐户信息, 通过接口把资料转入计费系统的serv表、serv_acct_i表和acct表, serv_id、acct_id为97分配给数据业务的独立字段。

数据计费合帐模块程序目录为$CWBMJF_HOME/src/ddmerger, 数据计费合帐的程序为ddmerger.pc。数据合帐主要有三大语句组成, 第一步:把设备费合到acct_item_log里, 通过关联serv.acc_nbr、ddi_ticket.acc_nbr把ddi_ticket.charge合到acct_item_log, 把应收费合到acct_item_log里;第二步:通过关联serv.acc_nbr、ddi_ticket.acc_nbr, ddi_serv_pp.acc_nbr把ddi_ticket.yshuan合到acct_item_log。 (注意, 本端信息和对端信息通过dd_serv_id来关联) ;第三步:对已经合帐的记录, 把ddi_ticket.state从Q0C标志为Q0P。

3相关库表设计

一套设计完善的库表系统是程序能实现各项功能的基础, 每个业务计费能否正确实现取决于能否把各种资费、优惠信息装换成库表里的参数。因此, 新用户增加时, 各个库表维护准确无误是保证用户数据计费正确的前提。数据计费系统的主要库表设计如下:

3.1 DDI_SERV_** (数据业务资料表)

因为各个业务与计费相关的资料各不相同, 笔者根据每个业务的特色各建了一张用户资料表:DDI_SERV_2M数据业务资料信息表、DDI_SERV_GX:GX数据业务资料信息表、DDI_SERV_FR:FR数据业务资料信息表、DDI_SERV_DDN:DDN数据业务资料信息表、DDI_SERV_PAC:PAC数据业务资料信息表、DDI_SERV_VPN:VPN数据业务资料信息表, 以及DDI_SERV_PP:对端信息表。

3.2 DDI_ACCT (数据业务帐务信息表)

该表为数据业务的合同号信息, 如果合同号信息是从计费97系统过来的, 不在该表记录, 该表只维护数据业务新增合同号, 并通过接口转到计费系统 (使用97分配的一段合同号) 。

3.3 DDI_TICKET (数据业务详单表)

数据业务详单表存放了数据业务每个用户不同时期的费用详单, 是数据合帐的基础表, 可以检查批价的正确性。

3.4 DDB_TARIFF (数据业务资费类型表)

数据业务有6种类型的业务:2M专线、光纤、桢中继 (FR) 、DDN、分组交换 (PAC) 和VPN。

3.5 DDB_PAY:数据业务收费类型表

收费类型可分为:我方全收、我方收一半、我方收取后付一半给对方 (分摊) 、对方全收、对方收取后付一半给我方、由第三方收取后全额支付给我方、我方收PVC费用的一半及端口费全部、我方全收给对方PVC费的一半、对付全收给我方PVC费用的一半及端口费全部、我方收端口费对方收PVC费全部给我方。这个分摊规则是计算用户费用、应收款和代收款的依据。

4结语

数据业务计费系统是否能够提供支持关系到一个新用户协议能否签订, 因此, 保证数据业务正常运行并不断加强数据业务计费系统的功能显得尤为重要。本文所述的这套数据业务系统满足了现有的各种业务需求, 但由于市场竞争的需要, 新的业务、新的用户协议层出不穷, 我们将对系统程序做进一步完善, 以提供更好的服务质量。

摘要:基础数据计费是温州本地网C3集中计费系统的一部分, 它包含数据业务用户资料管理、数据计费和数据合帐三部分。数据计费目前使用的是FOXPRO数据库, 无法实现资源网络共享, 新的数据计费系统依托POWER-BUILDER开发工具和ORACLE数据库, 最终实现了数据业务处理平台一体化, 提高了数据计费的灵活性, 实现了统一销帐。

基础实验数据处理方法探索 第9篇

在现在的大学学习期间,理工类专业的学生都要进行专业实验学习,作为一名大学实验教师,深知实验教学工作的重要性。特别是在当今社会,学生的实践能力越来越被高校重视,实验室的建设投资逐年增加,实验课时也在教学计划中有所增多。学生在实验课程中获得了理论课以外更多专业知识。但是,学生在处理实验报告时,由于实验数据繁多,计算公式复杂,导致实验结果偏离实验标准,错误百出,或者实验报告无法按时完成时,直接抄袭其他同学的实验数据和结果,严重影响了实验课程学习的效果,所以,提高广大学生的实验数据处理能力成为实验教学工作的重点所在。

1 实验数据处理方法现状

不同专业的学生,所做的实验项目相同,机械类专业有金属材料力学性能实验、液压传动实验等,电子信息类专业有电子技术实验、通信工程相关实验等,建筑土木类专业有梁的弯曲正应力实验,桁架梁的内力测定实验等,这些有两方面的共同点:第一、每个实验都有一定的数据计算量,不同的是有些简单,有些复杂而已;第二、大部分实验项目性质都是验证性实验,是本专业的基础实验。第三、这些实验都会产生实验数据。这些验证性实验的数据处理过程是比较重要的,其实验数据的重要性在于它经过精确的计算,得出的结果可以作为实验结果和证明实验理论正确的重要依据。大学期间所进行的实验,一般为验证性的专业基础实验,实验理论比较成熟,实验的作用在于证明对应理论的正确性,这就要求实验中产生的数据反映的结果必须符合理论情况。目前我们大部分基础实验的数据都要靠人为的从实验设备中读出并计算得出,如果设备误差一定,那么计算误差就是影响实验结果的主要因素了。

2 利用表格函数处理实验数据

现在,有一些实验设备已经软件化,有互相配套的实验软件可以对实验数据进行处理,但是有很多基础实验设备是达不到这个条件的。那怎么办呢?计算机的数据处理功能是十分强大的,配合一些简单常见的软件就可以达到效果。以下我将以《结构力学》中桁架内力测定实验为例,介绍一下利用Excel软件计算功能的数据处理方法。

桁架内力测定实验主要内容是对平面桁架杆的实际内力N测进行测定,并对其进行受力分析,并与用理论方法求出的N理进行比较,验证理论计算方法的正确性。

已知实验条件为:

桁架杆件为低碳钢空心杆,内径d=9毫米、外径D=14毫米,每个杆长度L=200毫米、高度H=173毫米、桁架上长400mm、下长600mm。杆件材料的弹性模量E=210GPa

在本实验中,利用CML-1H型应力&应变综合测试仪,对不同载荷力加载中桁架梁测出杆件发生的应变ε,得出数据如下表:

注:CML-1H型应力&应变综合测试仪的应变测试单位为με,所以在计算的时候,应变读数需要改变单位:ε=读数×10-6

学生通过实验操作得出以上数据后,每根杆件都需要根据以下力学公式计算出件内力的测量值:现就GB杆件的数据处理做一下举例:

例:处理GB杆件的实验数据

第一步:求杆件GB的内力N测GB

第二步:对桁架进行受力分析,利用结点法或截面法求出杆件内力的理论值N理GB

通过对桁架进行受力分析,列平衡方程求出杆件GB的理论内力N理GB不难,在此不再赘述。

第三步:对测量值和理论值进行比较求出误差

误差

由以上步骤可知,力学公式繁多,计算量大,如果对桁架的11根杆件都进行手算,重复计算量大,在有限的学时内不能全部得出实验结果,在没有得出实验结果的情况下向学生讲解桁架受力状况时,不利于学生对桁架性能的理解。我们可以利用Excel表格的计算功能,快速的计算出每一个结果,具体方法如下:

在表格中输入如图所示的公式,即可把实验测量值N测GB求出。这样,学生把实验数据得出后输入表格,测量值和误差值直接可以得出,进而可以分析桁架杆件的受力分布,使学生从数据一面理解桁架的受力情况,更好的完成实验报告。

3 在基础试验中推广表格函数方法的效果

对实验数据经过Excel软件处理,可以快捷的得出实验结果,必要的时候还可以插入图表,更形象更直观地反映数据的变化规律,使学生对实验结果的印象更加深刻,更好的达到加深理论知识的效果。以此为基础,本人在《材料力学》基础实验:梁的弯曲实验,《液压与气压传动》基础实验:小孔液阻特性实验、液压泵的性能实验等多个专业的不同实验中进行了学生实验,制作相关的数据处理表格在实验课上让部分学生展示实验结果,在使用和未使用表格的两组学生中抽查实验报告,得出以下实验数据:

通过比较,在使用表格的组别中,学生对实验内容了解较为深刻,在写实验报告过程中,对实验数据的分析较为透彻,回答问题比较全面,深层次剖析了相关的理论,实验报告能很好的完成,数据几乎没有出现大的误差。而没有使用表格的学生,在对数据进行处理时,计算误差大,与理论数据偏离严重,更有些同学的实验报告中实验数据和实验结果不相符,有抄袭嫌疑,经询问是因为知道计算之麻烦,对自己失去信心,没有认真完成实验报告。

4 结论

在高校加大实践教学力度,在以培养实用型人才为主要目标的教学过程中,实验教学的改革也刻不容缓,本文所述的实验数据处理方法简单易懂,方便在教学中推广。在基础试验中,利用表格处理数据,让繁琐的数据处理简单化,在有限的实验课时内,使学生更容易的接受实验内容,达到实验目的,会给广大实验教师和学生带来很大方便。作者希望本文能对广大实验教师有所帮助,拓宽实验数据处理方法的研究思路,提高实验教学过程的效率,降低实验理论学习的难度,使高校学生对专业基础实验的学习更加顺利。

参考文献

数据恢复基础 第10篇

一、大数据时代下高校财务管理, 应建立基础数据库

大数据时代的特点是能够对数据进行集中的处理和分析, 在进行数据分析处理之前, 通常会建立完善的数据库, 实现数据的有效收集。基于高校财务管理的特点, 以及高校财务管理中基础数据繁杂的现状, 大数据时代下高校财务管理只有建立基础数据库, 才能满足后续分析需要。为此, 高校财务管理应从三方面入手:

首先, 高校财务管理应做好基础数据的收集。由于高校财务管理中涉及到得数据较多, 做好基础数据的收集不但可以为下一步的数据分析提供有力支持, 同时也是建立数据库不可缺少的手段之一。

其次, 高校财务管理应建立基础数据库。做好了基础数据收集之后, 应根据基础数据的完善程度, 建立相应的是基础数据库, 重点做好基础数据的管理工作。

再次, 高校财务管理应将基础数据纳入到数据库管理中。为了保证高校财务管理基础数据库能够有效运转, 应将财务管理过程中的所有基础数据都纳入到数据库管理中。

二、大数据时代下高校财务管理, 应对基础数据进行统计分类

大数据时代下, 大数据技术的优势在于可以通过对复杂数据的分析, 找出数据的特征, 并将数据背后所反映出的内在规律予以展示, 为数据分析与管理提供有力的支持。基于这一认识, 高校财务管理在大数据时代, 不但要学会有效利用大数据分析手段, 还要在基础数据管理中, 全面应用大数据分析技术。

结合高校财务管理实际以及大数据分析的现实要求, 对基础数据进行统计分类是重要措施。通过对基础数据进行统计分类, 不但可以提高基础数据管理质量, 同时还能解决基础数据的归类问题。所以, 做好基础数据的统计分类, 并按照财务管理信息类别对基础数据进行统计分类是十分必要的。

同时, 对基础数据进行分类之后, 要对每一类数据进行必要的统计, 总结基础数据特点, 把握基础数据处理原则, 确保基础数据的统计在准确性上能够达到预期目标, 提高基础数据的处理质量。从这一点来看, 大数据数代对数据的处理速度更快, 处理难度也越来越低, 只有做好数据的分类统计, 才能为大数据技术的应用奠定良好的基础。

三、大数据时代下高校财务管理, 应分析基础数据的整体特点

对于高校财务管理而言, 考虑到财务管理工作的专业性和特殊性, 对数据处理的准确性和处理速度有着严格的要求, 做好数据处理不但有利于提高数据分析质量, 还可以为高校财务管理工作提供有价值的参考依据, 使高校财务管理工作能够找准数据流向特点, 为下一步的数据分析提供有力的保障。

除此之外, 对基础数据的整体特点进行分析, 是高校财务管理的重要内容, 考虑到数据复杂性等特点, 传统数据分析手段已经难以满足实际需要。大数据技术出现之后, 利用大数据的分析优势和归类优势, 可以对高校财务管理中涉及的基础数据进行必要的统计分析, 从中找出数据流的特点, 为高校财务管理工作提供一定的管理依据。

所以, 大数据数代下高校财务管理工作, 应对基础数据的整体特点进行分析, 做到总结基础数据规律, 并根据基础数据的规律判断出基础数据信息流背后所包含的特点。因此, 正确应用大数据手段进行必要的数据分析, 是解决高校财务管理工作问题的重要手段。

四、结论

通过本文的分析可知, 目前高校财务管理实际来看, 基础数据的分析是关键。但是受到高校财务数据多, 财务管理流程复杂等因素的限制, 高校在财务管理中无法对基础数据进行快速有效的分析, 导致了高校财务管理工作在实效性上有所欠缺, 不利于高校财务管理工作的开展。大数据技术的出现, 给了高校财务管理工作以新的手段支持, 不但解决了高校财务管理中基础数据分析的困难, 还提高了财务基础数据分析质量, 推动了高校财务管理工作的发展。

摘要:在高校财务管理过程中, 基础数据分析十分关键。做好基础数据分析不但可以为高校财务管理提供基本的数据支持, 同时也能对高校的财务支出和收入情况有全面的掌握。但是受到管理数据多、分析过程复杂等因素的影响, 高校财务管理的基础数据分析还存在较大难度。大数据时代的来临, 给基础数据分析提供了有力的手段, 实现了数据的快速准确分析。因此, 大数据时代下高校财务管理应学会正确应用数据分析手段, 并积极做好基础数据的分析, 为财务管理工作提供有力保证。

关键词:大数据时代,高校财务管理,基础数据分析

参考文献

[1]谢铁锋, 张金海.改善财务管理利润年年上升[J].财会通讯 (综合版) , 2014 (05) .

[2]李华甫.学习、借鉴西方财务管理为我所用[J].冶金财会, 2014 (05) .

[3]钟边.湖南农科院出台新的财务管理办法[J].农业科研经济管理, 2014 (02) .

[4]黎羊.基于高校财务管理问题的调查与对策研究[D].吉林大学, 2014.

[5]马敏.高校财务管理若干问题研究[D].长安大学, 2014.

用软件定义基础架构重塑数据中心 第11篇

以我国为例,我国现在大约拥有8.38亿中国互联网用户、7.19亿中国博客用户、4.68亿微信活跃用户,有超过4亿台智能手机,还有超过2000万新的PC和平板电脑。支撑如此巨大的用户群体需要强大而且灵活的数据中心(大约每400台智能手机设备或者100台可穿戴设备就需要1台服务器),而传统的数据中心是很难满足需求的。比如,传统数据中心提供一项新服务平均需要2~3周,但市场的瞬息万变需要尽快将服务推出。

“在一个SMAC(‘S’指社交、‘M’指移动、‘A’指分析、‘C’指云计算)主导的时代,建设开放、高效、按需提供、弹性的数据中心势在必行,英特尔提出的软件定义基础架构(Software-defined Infrastructure,SDI)正是在这个背景下提出的。它的目标就是通过重构数据中心,使数据中心能够敏捷、自动和高效。”英特尔(中国)有限公司行业合作与解决方案部高级经理、行业资深架构师龚毅敏告诉本报记者。

龚毅敏介绍说,基于软件定义基础设施构建的数据中心应该是动态的、高度自动化和软件定义的,这和传统的数据中心有很大不同,传统数据中心是一种静态、手动和硬件定义的,这样的传统数据中心根本无法满足云时代不断变化的需求。在按照软件定义基础架构构建的数据中心中,软件主导硬件,硬件只提供重要的基础架构属性,用软件来实现实时、智能和完全自动化。

具体而言,软件定义基础架构包含三个方面的内容,即计算、存储和网络。在这三个方面,英特尔分别都有相对应的产品。比如,在计算方面英特尔推出了名为RSA(Rack Scale Arch)的架构来重新定义服务器,RSA采用分离的部件和预定义的机架, 各个部件单独集成,可扩展,且便于构建基于机架的资源池。

龚毅敏表示,RSA架构可以很好地支持当下流行的模块化数据中心概念。在模块化数据中心,计算、网络和存储都可以和配电、制冷等设备集合成一个个独立的可插拔模块,方便扩展,也方便维护。

而在网络方面,英特尔也是软件定义网络(SDN)的大力推动者和实践者,同时在网络功能虚拟化(NVF)和虚拟化网络方面都推出了自己的产品。同样,在存储方面英特尔也是软件定义存储的领导者,英特尔有高速缓存加速(iCAS)、下一代NVM以及英特尔存储加速库等相关技术。

龚毅敏强调说,英特尔的SDI是一个开放的架构,英特尔正在为之构建一个广泛的生态系统。“不管是开源的OpenStack还是VMware、微软等,SDI都可以很好地支持其产品。”龚毅敏说,“简化、弹性、互操作性以及基于开放的工业标准建设正是SDI的主要特点。”

市政基础设施数据同步模型研究 第12篇

政府综合管理部门没有能力对各类数据实施动态更新,更新只能由权属单位来做,而各权属单位在地域上一般是分散的,所以需要采用分布式数据库技术,将各个市政行业数据库的变化动态反映到集成的综合数据库服务器之中。市政信息分布式一体化动态管理概念模型,如图1所示:

对市政同步相关业务分析主要集中在数据的类别、流动方向、数据量和流动特点等几个方面。市政管理信息集成系统中需要同步的数据主要有市政基础设施数据和业务数据两类。这两类数据的特点是频繁、大量、耗时和集中。数据由各行业数据经过筛选、过滤综合后向综合管理级同步。因此数据同步方案必须符合以下几点要求:保证海量空间数据同步的高效性;保证数据同步安全性;数据同步方案应具有较强的容错性;保证异构环境下的数据同步。

2 解决方案构想和设计

基于工作库和中间件的数据同步模型的总体设计思路可以概括为:首先对同步参数进行分类,针对不同类别的参数,设计不同的工作表,共同构成同步工作库。然后,结合工作库进行数据同步中间件的设计,把数据同步过程抽象为数据访问、数据捕获、数据传输、数据转换和安全验证等环节,分别对各个环节进行设计,然后进行一定程度的集成形成数据同步集成中间件。基于工作库和中间件的数据同步的总体模型如图1所示:

3 同步工作库

同步工作库是完成同步工作参数的集合,为数据同步做准备工作,是数据同步的基础。数据同步参数大致可以分为两类:一类是数据同步过程中进行数据过滤和筛选的一些“条件”,例如:同步表过滤、属性字段筛选等;另一类是用于同步的配置信息。如:同步方式、数据库连接、网络连接、同步功能选择等;具体说包括以下内容:

(1)同步过滤。由于行业级所管理的数据与市政级所管理的存在很大差异,一般前者更详尽,后者则是前者在城市规划意义上的综合。因此,在行业级与市政级进行数据同步时会遇到两个问题:其一是行业级有些数据表参与数据同步,而有些表与同步无关;其二是参与同步的表中也存在有些字段需要同步,而有些字段不需要同步。对于这两个问题,如果要对海量的空间数据进行数据同步且没有进行同步数据过滤和筛选,则会大大降低数据同步的效率。因此,在进行数据同步时,必须对行业级同步表进行过滤,对同步表中同步字段进行筛选,通过拼接过滤串把不需要同步的数据屏蔽掉,从而减少数据同步量,提高数据同步效率。

(2)命名映射。在行业级与市政级进行数据同步时,可能会遇到命名冲突的问题,即存在属性字段名称不一致的情况。针对这种情况,需要对源表S与目标表T中存在命名冲突的属性建立映射关系,建立命名冲突映射表。

(3)类型映射。在行业级与市政级进行数据同步时,可能会遇到数据类型异构的问题。这种异构主要表现在两个方面:一方面是指行业级与市政级存在属性字段类型不一致的情况;另一方面是指源数据库和目标数据库选择不同的数据库系统导致的数据类型的不一致(精度差异和语义差异)。针对这个问题,需要预先设置存在差异的数据类型的对应关系,建立数据类型映射表,进行数据类型的转换。

(4)数据库连接参数。数据库连接参数是指在进行数据库访问时连接源数据库或目标数据库的连接信息。数据库连接参数一般有DBMS类型、数据库服务器名、数据库名、用户名和用户密码等。

(5)数据同步基本参数。主要包括同步功能选择信息和同步工作基本配置信息。例如同步方式的选择(影子表法、时间戳法、控制表法);同步频率,指两次同步的时间间隔;同步时间,指最近一次数据同步时间;同步优先级,指当多个数据库同时与中心数据库同步时,根据同步优先级排列同步秩序;是否进行加密以及加密或签名的元素等等。

4 数据同步集成中间件

该部分采用多层架构Web Service体系结构,并在一定程度上实现Web Service集成。从内部实现来看,本中间件设计是以Web Services的方式对外提供交互,以Web应用客户端和其它应用程序客户端从不同的平台,不同的软件开发环境调用该集成中间件的Web Services接口,从而获得来自不同数据源的数据,实现数据的透明访问。这部分结合同步工作库完成数据同步的主要工作,是数据同步核心部分。具体包括数据库访问、变化数据抽取、数据转换、数据传输、安全验证等五个小模块。

4.1 数据库访问模块

该模块主要是提供一种对数据库简单、高效的访问方式。该模块使Web服务与Data Access Application Block相结合,通过保存在工作库中的数据库名称、服务器名称、服务器类型、连接数据库用户名和连接数据库密码等信息建立与源数据库的连接。Data Access Application Block对于不同类型的数据库提供了编程上的透明性,可以屏蔽数据库类型的差异。即无论对什么样的数据库进行编程都采用同样的数据访问方式,并且它搭建了逻辑数据库与物理数据库间的桥梁,降低了改变物理数据目标的难度。因此,我们在编程时根本不需要知道是在对哪一类数据库进行编程,这个数据库放在什么地方。

4.2 数据获取模块

数据捕获即提取行业级数据库中要进行同步的数据。数据捕获的方法有多种,如:触发器法、日志法、API法、影子表法、控制表法、时间戳法和快照法等。不同的数据捕获方法都有其相应的优缺点,依据系统特色去选择相应的捕获方法至关重要。因此,该模块在设计时,考虑整个模型的通用性和灵活性,使用Web服务对以上提到的各种方法进行封装,而系统具体使用哪一种方法,可以通过工作库中同步基本参数的配置进行选择。而每种方法的辅助机制则在工作库配置完成后智能生成,例如:工作库中数据捕获选择为时间戳法,则需要自动生成时间戳字段、删除表、更新表,以及相应的触发器等辅助机制。

4.3 数据转换模块

XML作为一种标准数据交换格式,主要用于异构环境下的数据交换,以及在网络上传输大量的结构化数据。该模块利用XML作为异构数据交换的载体,完成异构数据转换工作。主要包括以下两个部分:

(1)关系数据到XML文档的映射。关系数据到XML文档的映射包括两个部分:一部分是XML Schema,就是XML的描述语言部分,XMLSchema能定义XML文档的结构、内容和语义,Xml Schema文档生成后将放置到目标服务器,做为预置XML文档格式约束以便对XML数据文档进行有效性验证;另一部分是包含数据捕获模块获取的具体数据的XML数据文档。

(2)XML文档到关系数据库的映射。

是关系数据到XML映射的逆过程,即将XML文档中内容反映到目标数据库中。具体包括以下方面:结合工作库中的类型映射表,提取需要数据类型转换的字段,选择相应的类型转换方法进行类型转换;结合工作库中命名冲突映射表,进行字段命名转换;最后,动态生成SQL语句,实现XML数据文档到数据库的转换。

4.4 数据传输模块

数据传输模块分为数据发送和数据接收两个部分。分别部署在市政级服务器和行业级服务器上,发送部分负责把源数据库中提取的变化数据生成的XML数据文档交给发送模块进行网络传输,穿过安全网发送到数据接收端;接收端接收XML数据文档,放置XML文件库,并返回接收成功信号。

数据传输步骤如下:

(1)数据中心向接收端发送同步请求。即向接收端发送一个同步源的数据库ID号。

(2)接收端通过同步源数据库ID号检索工作库SourD-BConInfo表,提取同步源数据库相关信息。

(3)接收端依据步骤2提取的信息向不同的发送端发送请求信息。

(4)发送端接收到发送请求后开始向接收端发送数据。即发送经过变化数据抽取、加密过的XML数据文档。

(5)接收端将接收到XML文档置于XML文件库,检索工作库BaseConfigInfo表(是否有加密)进行相应的处理,并向发送端发送接收状态信息。如XML文档验证失败,则向发送端发送失败消息,发送端将重新进行数据的发送;如XML数据文档成功通过验证,则向发送端发送成功信息,整个传输过程结束;数据传输过程如图3。

4.5 安全验证模块

安全验证模块的功能是保证同步数据的完整性和安全性。具体说包括两个部分:一是XML文档的加密与解密。通过对一些加密算法的研究,综合对称加密算法与非对称加密算法的优缺点,本文同时选择了AES对称加密算法和RAS非对称加密算法。首先用AES对称加密算法对XML数据加密。然后使用RAS非对称加密算法对前面使用的AES对称加密算法的密钥加密。以达到在速度和安全性方面的优化组合。二是XML文档有效性验证。XML文档有效性验证包括定义的文档模式符合XML Schema的语法和模式是可以被实例化的,可以作为XML实例文档数据有效性验证标准两个方面。对文档进行有效性验证不仅可以保证同步数据的准确性,也可处理如网络状况差或突然断电引起数据传输的不完整性。

摘要:在分析市政基础设施数据的特点和数据同步技术的基础上,提出了一种基于工作库和中间件的数据同步模型,在设计该同步模型时,考虑数据同步中安全、效率、通用、灵活等多方面因素,以解决市政行业级与市政级数据同步更新问题。

关键词:数据同步,中间件,工作库,XML

参考文献

[1]曾文,张德津.基于GIS的市政管理信息集成方案及关键技术[J].地理科学(中国地质大学学报),2006,31(5):688-692.

[2]孙业毅.网络隔离环境下数据库同步技术研究及应用[D].合肥工业大学:计算机学院,2007.

上一篇:农村面貌论文下一篇:高中数学课堂教学引入