GridFS在数据库中,默认使用fs.chunks和fs.files来存储文件。
其中fs.files集合存放文件的信息,fs.chunks存放文件数据。
一个fs.files集合中的一条记录内容如下,即一个file的信息如下:
1
2
3
4
5
6
7
8
9
10 |
{ "_id"
: ObjectId( "4f4608844f9b855c6c35e298" ), //唯一id,可以是用户自定义的类型 "filename"
: "CPU.txt" , //文件名 "length"
: 778, //文件长度 "chunkSize"
: 262144, //chunk的大小 "uploadDate"
: ISODate( "2012-02-23T09:36:04.593Z" ), //上传时间 "md5"
: "e2c789b036cfb3b848ae39a24e795ca6" , //文件的md5值 "contentType"
: "text/plain"
//文件的MIME类型 "meta"
: null
//文件的其它信息,默认是没有”meta”这个key,用户可以自己定义为任意BSON对象 } |
对应的fs.chunks中的chunk如下:
1
2
3
4
5
6 |
{ "_id"
: ObjectId( "4f4608844f9b855c6c35e299" ), //chunk的id "files_id"
: ObjectId( "4f4608844f9b855c6c35e298" ), //文件的id,对应fs.files中的对象,相当于fs.files集合的外键 "n"
: 0, //文件的第几个chunk块,如果文件大于chunksize的话,会被分割成多个chunk块 "data"
: BinData(0, "QGV..." ) //文件的二进制数据,这里省略了具体内容 } |
默认chunk的大小是256K。
public static final int DEFAULT_CHUNKSIZE = 256 * 1024;
所以在把文件存入到GridFS过程中,如果文件大于chunksize,则把文件分割成多个chunk,再把这些chunk保存到fs.chunks中,最后再把文件信息存入到fs.files中。
在读取文件的时候,先据查询的条件,在fs.files中找到一个合适的记录,得到“_id”的值,再据这个值到fs.chunks中查找所有“files_id”为“_id”的chunk,并按“n”排序,最后依次读取chunk中“data”对象的内容,还原成原来的文件。
尽管从理论上,无论用什么hash函数,都有可能出现hash值相同,但内容不相同的文件,但是对于GridFS默认使用的md5算法,目前已出现长度和md5值都相同但内容不一样的文件。
如果想要自已改用其它hash算法,可以从驱动入手。因为GridFS在MongoDB中实际也只是两个普通的集合,所以完全可以自已修改驱动,替换下hash算法即可。
目前java版的驱动比较简单,可以很容易修改实现。
但是要注意,这样不符合GridFS的规范了。
1. GridFS不自动处理md5相同的文件,对于md5相同的文件,如果想在GridFS中只有一个存储,要用户自已处理。Md5值的计算由客户端完成。
2. 因为GridFS在上传文件过程中是先把文件数据保存到fs.chunks,最后再把文件信息保存到fs.files中,所以如果在上传文件过程中失败,有可能在fs.chunks中出现垃圾数据。这些垃圾数据可以定期清理掉。
原文:http://www.cnblogs.com/silentjesse/p/3602177.html