我在MSsql 2005中有大约15k行,我想迁移到CouchDB,其中一行是一个文档.我有一个CLR-UDF,它将n行写入模式绑定的
XML文件.我有一个XSL转换,它将模式绑定的XML转换为
JSON.
使用这些现有工具,我认为我可以将MSsql转换为XML到JSON.如果我为每个JSON文件批量n行,我可以编写脚本cURL来遍历文件并使用批量API _bulk_docs将它们发布到CouchDB.
这会有用吗?以前有人做过这样的迁移吗?你能推荐一个更好的方法吗?
解决方法
到目前为止,我做了一些从遗留sql数据库到CouchDB的转换.我总是有一个不同的方法.
>我使用sql-DB的主键作为Document-Id.这让我可以反复导入,而不用担心会出现重复文件.
>我做了逐行导入而不是批量导入.它使调试更容易.我通过Internet连接看到每秒5-10次插入.虽然这不是闪电般快,但它对我来说足够快.我最大的数据库是600.000份文件,共20GB.在导入期间逐行膨胀数据库,以便偶尔运行压缩.然后再次,除非你的行是巨大的15.000行听起来不多.
我的导入代码通常如下所示:
def main(): options = parse_commandline() server = couchdb.client.Server(options.couch) db = server[options.db] for kdnnr in get_kundennumemrs(): data = vars(get_kunde(kdnnr)) doc = {'name1': data.get('name1',''),'strasse': data.get('strasse','plz': data.get('plz','ort': data.get('ort','tel': data.get('tel','kundennr': data.get('kundennr','')} # update existing doc or insert a new one newdoc = db.get(kdnnr,{}) newdoc.update(doc) if newdoc != db.get(kdnnr,{}): db[kdnnr] = newdoc