借助SQL Server分区视图,可以对SQL中的表进行集中管理,下文将以实例的方式为您详解SQL Server分区视图,希望对您学习SQL数据库能有所帮助。
SQL Server分区视图给我们提供了一种实现大数据量管理的方法,类似于其它数据库管理系统的分区视图。不仅实现了表的集中管理,而且实现了数据的快速定位。下边我就以一个日志记录表为例来说以下分区视图的作用:
日志记录表可以记录很长时间的日志信息,随着时间的推移,日志表会变的很大。这样对与表的查询和维护操作都是非常慢的,但是如果我们按日期来划分把表分成若干小表,而在逻辑上统一使用一个视图来查询管理,那么是非常方便的.而且SQL Server可以根据查询的条件来自动的定位表,这样也就提高了查询的速度.
-- 首先我们要实现的是一个记录日志的存储过程,这个存储过程不是简单的把日志插入,还要按当前日期来判断-- 表是否存在,然后动态的建立表,并按分区表的规则建立CHECK约束.在此例中,我们使用的是按周的日期来-- 规定表的名称如下:dbo.[20061218-20061224]
-
use TestDB
-
if exists (select name from sysobjects where name = 'P_LogWriter' and type = 'P')
-
drop proc dbo.P_LogWriter
-
go
-
----Log日志文件
-
-
create proc dbo.P_LogWriter
-
@desc varchar(1000)
-
as
-
begin tran
-
set nocount on
-
-
declare @wk_start datetime,@wk_end datetime
-
declare @str_start varchar(50),@str_end varchar(50)
-
declare @tb_name varchar(100),@sql varchar(4000)
-
-
-- 周的开始日期
-
set @wk_start=dateadd(d,2-datepart(dw,getdate()),convert(char(10),getdate(),120))
-
-- 周的结束日期
-
set @wk_end=dateadd(s,-1,dateadd(wk,1,@wk_start))
-
-
set @str_start=convert(varchar(50),@wk_start,120)
-
set @str_end=convert(varchar(50),@wk_end,120)
-
-
-- 表的名称
-
set @tb_name=convert(varchar(10),@wk_start,112)+'-'+convert(varchar(10),@wk_end,112)
-
-
-- 如果表不存在,就建立表
-
if not exists(select 1 from sysobjects where name=@tb_name and xtype='U')
-
begin
-
set @sql='create table dbo.['+@tb_name+'](id int identity(1,1),updatetime datetime pRIMary key check(updatetime between '''+@str_start+''' and '''+@str_end+'''),[desc] varchar(1000))'
-
--print @sql
-
exec(@sql)
-
end
-
-
-- 插入相应的日志数据
-
set @sql='insert ['+@tb_name+'](updatetime,[desc]) select getdate(),'''+@desc+''''
-
exec(@sql)
-
-
set nocount off
-
commit tran
-
Go
-
-- 创建分区视图
-
create view v_Log
-
as
-
select * from dbo.[20061218-20061224]
-
union all
-
select * from dbo.[20061225-20061231]
-
Go
-- 查询分区视图
-
select * from v_Log
-
where updatetime<'2006-12-24 11:21:27.653'
-- 通过分析查询的执行计划我们可以看到,SQL Server可以自动定位相应的表取得数据,从而提高了查询的-- 速度.
类别:数据库技术 来源:本站原创 作者:HDUT 日期:2013-08-09 15:34
上一条:oracle表空间操作详解-入门基础
下一条:超越批量处理与MapReduce:如何让Hadoop走得更远