随笔 - 175  文章 - 202  trackbacks - 0
<2010年1月>
272829303112
3456789
10111213141516
17181920212223
24252627282930
31123456

第一个Blog,记录哈哈的生活

常用链接

留言簿(16)

随笔分类

随笔档案

文章分类

文章档案

收藏夹

Java links

搜索

  •  

最新评论

阅读排行榜

评论排行榜

@import url(http://www.blogjava.net/CuteSoft_Client/CuteEditor/Load.ashx?type=style&file=SyntaxHighlighter.css);@import url(/css/cuteeditor.css);

二进海底,龙宫那边新多出一个海螺,进去就是龙宫密道,里面有DOMO组员杨志豪,把他弄走,就在原地来回跑,会定期出现一大鱼一大虾,殴之,每次法宝加40点。我在这里练蓝格怪衣,这个每用一次也加5点。
posted @ 2014-05-10 21:21 哈哈的日子 阅读(476) | 评论 (0)编辑 收藏
等到符鬼很饿(能喂2个东西的时候),找到两个相同的喂食物,比如2个狮子精【有一个“狮子吼”技能】,设此时的符鬼有一个技能是“强音波”,点击“狮子吼”两次,符鬼的那个技能就变成了“无” !@import url(http://www.blogjava.net/CuteSoft_Client/CuteEditor/Load.ashx?type=style&file=SyntaxHighlighter.css);@import url(/css/cuteeditor.css);

为了成功,保存好,多来几次!
posted @ 2014-05-05 21:43 哈哈的日子 阅读(423) | 评论 (0)编辑 收藏
@import url(http://www.blogjava.net/CuteSoft_Client/CuteEditor/Load.ashx?type=style&file=SyntaxHighlighter.css);@import url(/css/cuteeditor.css); 在月河村的客栈,一直向右,到不能再右,向下一步,然后再点宝物就可以了。
posted @ 2014-05-05 21:34 哈哈的日子 阅读(474) | 评论 (0)编辑 收藏
人成熟与不成熟跟年龄没有关系。人成熟不成熟,就是你能不能站在对方的角度去看待事物,就是能不能把我的世界变成你的世界。这个社会有很多的成年人,还没有脱离幼稚的行为。一点小事情就跟别人争来争去。
      人不成熟的第一个特征:就是立即要回报。
      他不懂得只有春天播种,秋天才会收获。很多人在做任何事情的时候,刚刚付出一点点,马上就要得到回报。(学钢琴,学英语等等,刚开始就觉得难,发现不行,立即就要放弃。)很多人做生意,开始没有什么成绩,就想着要放弃,有的人一个月放弃,有的人三个月放弃,有的人半年放弃,有的人一年放弃,我不明白人们为什么轻易放弃,但是我知道,放弃是一种习惯,一种典型失败者的习惯。所以说你要有眼光,要看得更远一些,眼光是用来看未来的!
      对在生活中有放弃习惯的人,有一句话一定要送给你:"成功者永不放弃,放弃者永不成功"。那为什么很多的人做事容易放弃呢?美国著名成功学大师拿破仑希尔说过:
穷人有两个非常典型的心态:
1、永远对机会说:"不";
2、总想"一夜暴富"。
      今天你把什么机会都放到他的面前,他都会说"不"。就是今天你开饭店很成功,你把你开饭店的成功经验,发自内心的告诉你的亲朋好友,让他们也去开饭店,你能保证他们每个人都会开饭店吗?是不是照样有人不干。
      所以这是穷人一个非常典型的心态,他会说:"你行,我可不行!"。一夜暴富的表现在于,你跟他说任何的生意,他的第一个问题就是"挣不挣钱",你说"挣钱",他马上就问第二个问题"容易不容易",你说"容易",这时他跟着就问第三个问题"快不快",你说"快"!这时他就说"好,我做!"呵呵,你看,他就这么的幼稚!
      大家想一想,在这个世界上有没有一种:"又挣钱,又容易,又快的",没有的,即使有也轮不到我们啊,所以说在生活中,我们一定要懂得付出。那为什么你要付出呢?因为你是为了追求你的梦想而付出的,人就是为了希望和梦想活着的,如果一个人没有梦想,没有追求的话,那一辈子也就没有什么意义了!
      在生活中你想获得什么,你就得先付出什么。你想获得时间,你就得先付出时间,你想获得金钱,你得先付出金钱。你想得到爱好,你得先牺牲爱好。你想和家人有更多的时间在一起,你先得和家人少在一起。
但是,有一点是明确的,你在这个项目中的付出,将会得到加倍的回报。就象一粒种子,你把它种下去以后,然后浇水,施肥,锄草,杀虫。最后你收获的是不是几十倍,上百倍的回报。
      在生活中,你一定要懂得付出,你不要那么急功近利,马上想得到回报,天下没有白吃的午餐,你轻轻松松是不可能成功的。
一定要懂得先付出!
人不成熟的第二个特征:就是不自律。
不自律的主要表现在哪里呢?
一、不愿改变自己:
      你要改变自己的思考方式和行为模式。你要改变你的坏习惯。其实,人与人之间能力是没有多大区别,区别在于思考方式的不同。一件事情的发生,你去问成功者和失败者,他们的回答是不一样的,甚至是相违背的。
      我们今天的不成功是因为我们的思考方式不成功。一个好的公式是:当你种植一个思考的种子,你就会有行动的收获,当你把行动种植下去,你会有习惯的收获,当你再把习惯种植下去,你就会有个性的收获,当你再把个性种植下去,就会决定你的命运。
      但是如果你种植的是一个失败的种子,你得到的一定是失败,如果你种植的是一个成功的种子,那么你就一定会成功。
很多人有很多的坏习惯,如:看电视,打麻将,喝酒,泡舞厅,他们也知道这样的习惯不好,但是他们为什么不愿意改变呢?因为很多人宁愿忍受那些不好的生活方式,也不愿意忍受改变带来的痛苦
二、愿意背后议论别人:
      如果在生活中,你喜欢议论别人的话,有一天一定会传回去,中国有一句古话,论人是非者,定是是非人
三、消极,抱怨:
      你在生活中喜欢那些人呢?是那些整天愁眉苦脸,整天抱怨这个抱怨哪个的人,还是喜欢那些整天开开心心的人。如果你在生活中是那些抱怨的,消极的人的话,你一定要改变你性格中的缺陷。如果你不改变的话,你是很难适应这个社会的。你也是很难和别人合作的。
      生活当中你要知道,你怎样对待生活,生活也会怎样对待你,你怎样对待别人,别人也会怎样对待你。所以你不要消极,抱怨。你要积极,永远的积极下去,就是那句话:成功者永不抱怨,抱怨者永不成功
人不成熟的第三个特征:经常被情绪所左右。
一个人成功与否,取决于五个因素:
学会控制情绪
健康的身体
良好的人际关系
时间管理
财务管理
      如果你想成功,一定要学会管理好这五个因素,为什么把情绪放在第一位呢?把健康放在第二位呢?是因为如果你再强的身体,如果你情绪不好,就会影响到你的身体,现在一个人要成功20%靠的是智商,80%靠的是情商,所以你要控制好你的情绪,情绪对人的影响是非常大的。人与人之间,不要为了一点点小事情,就暴跳如雷,这样是不好的。
所以在生活中,你要养成什么样的心态呢?你要养成"三不","三多":

不批评、不抱怨、不指责;

多鼓励、多表扬、多赞美。

      你就会成为一个受社会大众欢迎的人。如果你想让你的伙伴更加的优秀,很简单,永远的激励和赞美他们。
      即使他们的确有毛病,那应该怎么办呢?这时是不是应该给他们建议,在生活中你会发现有这样一个现象,有人给别人建议的时候,别人能够接受,但是有建议的时候别人就会生气。其实建议的方式是最重要的,就是"三明治"赞美,建议,再赞美!
想一想,你一天赞美了几个人,有的人可能以为赞美就是吹捧,就是拍马屁。赞美和吹捧是有区别的,赞美有四个特点:
1、是真诚的
2、是发自内心的
3、被大众所接受的
4、无私的
      如果你带有很强的目的性去赞美,那就是拍马屁。当你赞美别人时候,你要大声的说出来,当你想批评别人的时候,一定要咬住你的舌头!
      人不成熟的第四个特征:不愿学习,自以为是,没有归零心态。
      其实人和动物之间有很多的相似之处,动物的自我保护意识比人更强(婴儿与小猪)但是,人和动物最大的区别在于,人会学习,人会思考。人是要不断学习的,你千万不要把你的天赋潜能给埋没了,一定要学习,一定要有一个空杯的心态。我们象谁去学习呢?就是直接向成功人士学习!
      你要永远学习积极正面的东西,不看,不听那些消极,负面的东西。一旦你吸收了那些有毒的思想,它会腐蚀你的心灵和人生    的。在这个知识经济的时代里,学习是你通向未来的唯一护照。在这样一个速度,变化,危机的时代,你只有不断的学习你才不会被这个时代所抛弃,一定要有学习,归零的心态。去看每一个人的优点,"三人行,必有我师也"!
人不成熟的第五个特征:做事情不靠信念,靠人言。
      我们说相信是起点,坚持是终点。很多人做事不靠信念,喜欢听别人怎么说。对自己所做的事业,没有100%的信心,相信和信念是两个不同的概念,相信是看得见的,信念是看不见的。
      信念是人类的一种态度,但是很多的人他们做事,不靠信念的,而是要听别人怎么说,你要登上山峰,要问那些爬到山顶的人,千万不能问没有爬过山的人。
      这里不是说别人的建议不要去听,你可以去参考,但是你要记住,你来做这个生意是为了实现你的梦想,实现你自己的价值。其他的人是不会关心你的梦想的,只有你自己关心你自己的梦想,只有你自己关心你自己能否真正的成功。这才是最重要的!
只要你的选择是正确的,永远不要在乎别人怎么说,以上的人不成熟的五个特征,你们自己去对照,那一个特征是你有的,你一定要在最短的时间里改正,只要你相信你自己能够战胜自己的不成熟,你就会逐渐的成长,成熟起来,你就会得到你想要的那种生活。你就会实现你时间自由、财务自由、精神自由的人生梦想! 
posted @ 2013-11-20 16:17 哈哈的日子 阅读(233) | 评论 (0)编辑 收藏

设置了 scanPeriod 之后,过了好长时间,都不生效,后来 debug 代码。发现了下面这段。

  private volatile long mask = 0xF;
@Override
public FilterReply decide(Marker marker, Logger logger, Level level,
String format, Object[] params, Throwable t) {
if (!isStarted()) {
return FilterReply.NEUTRAL;
}
// for performance reasons, skip change detection (MASK-1) times out of MASK.
// Only once every MASK calls is change detection code executed
// Note that MASK is a variable itself.
if (((invocationCounter++) & mask) != mask) {
return FilterReply.NEUTRAL;
}
long now = System.currentTimeMillis();
synchronized (configurationWatchList) {
updateMaskIfNecessary(now);
if (changeDetected(now)) {
// Even though reconfiguration involves resetting the loggerContext,
// which clears the list of turbo filters including this instance, it is
// still possible for this instance to be subsequently invoked by another
// thread if it was already executing when the context was reset.
disableSubsequentReconfiguration();
detachReconfigurationToNewThread();
}
}
return FilterReply.NEUTRAL;
}

这行 if (((invocationCounter++) & mask) != mask) { mask = 0xf,其实要每循环 0xf 次,也就是 15 次,才会去 check 一次是否要更新,也就是说,不管过了多久,如果没到这 15 次,也不会去检查是否更新配置。
也就是说,我多打几次 log,配置文件就生效了。

@import url(http://www.blogjava.net/CuteSoft_Client/CuteEditor/Load.ashx?type=style&file=SyntaxHighlighter.css);@import url(/css/cuteeditor.css);
posted @ 2013-11-12 14:25 哈哈的日子 阅读(1602) | 评论 (0)编辑 收藏

spring security(下简写为 ss)控制的安全主要有两方面,Web 和 Method Call,这两个方面的权限控制有比较多的相通的设计,也有一些特别的功能。比如 Method Call 可以做 After Invocation 控制,而 Web 可以做 Ip 地址控制。

这里面有两个最基本的概念:authentication manager 和 access decision manager,前者控制认证,后都控制鉴权。
1. 在 ss 的认证系统中,默认的实现帮助我们提供了三个概念,用户(user),角色(authority,一般存 role)和组(group),三者的关系是,组、角色与用户都是多对多关系,组和角色间没关系,默认是不启用组的。后续,在 Acl 权限管理中,可以看到角色之间,是可以有包含(树形?)关系的。
2. 在 ss 的鉴权系统中,明显会比认证复杂得多。有 AccessDecisionManager, AccessDecisionVoter(前置), AfterInvocationProvider(后置), RoleHierarchy, SidRetrievalStrategy, LookupStrategy, PermissionGrantingStrategy, SecurityExpressionHandler, AclService, MutableAclService, AclCache 概念过多了,要一个一个解释
a) 中心是 AccessDecisionManager,主要负责 AccessDecisionVoter 的管理,默认提供了3种实现:1. AffirmativeBased 如果有任何一个投票器允许访问,请求将被立刻允许,而不管之前可能有的拒绝决定。2. ConsensusBased 多数票(允许或拒绝)决定了结果,平局的投票 和空票(全是弃权的)的结果是可配置的。3. UnanimousBased 所有的投票器必须全是允许的,否则访问将 被拒绝。
AccessDecisionManager 在用于 Web 和 Method Call 两种情况下,可能是不一致的,因为功能也不一致。
b) Method Call 除了使用 AccessDecisionManager 进行权限判断外,还可以增加 AfterInvocationProvider 来进行出口数据的判断,默认提供了 3 种。
1) PostInvocationAdviceProvider: 需要提供一个 PostInvocationAuthorizationAdvice,默认实现只有一个,就是 ExpressionBasedPostInvocationAdvice,可以通过 spel 来进行权限判断。注意 ExpressionBasedPostInvocationAdvice 中需要提供一个 MethodSecurityExpressionHandler,能够创建出一个 MethodSecurityExpressionOperations,放到 spel context 中,供 spel function 调用,这样的方式,在后续很常见。
2) AclEntryAfterInvocationProvider 和 AclEntryAfterInvocationCollectionFilteringProvider : 这两种都差不多,主要依赖 AclService, ObjectIdentityRetrievalStrategy, SidRetrievalStrategy 来配合,检查返回值的权限。Collection 版本的,可以把无权限的数据去掉,只留下有权限的数据。
c) RoleHierarchy 提供了角色之间的关系,提供了两个实现,一个是没关系的,直接把 user 的 role 返回,另外一个是有继承关系的。继承关系实现挺有意思的,能够处理多级的 include 关系,比较好用。
RoleHierarchy 的使用比较复杂,会被 AccessDecisionVoter, SidRetrievalStrategy, SecurityExpressionHandler 用到,SecurityExpressionHandler 又会被 AccessDecisionVoter 用到,所以还是有点儿混乱。
具体的说 SecurityExpressionHandler 会用到 PermissionEvaluator 和 RoleHierarchy,PermissionEvaluator 的一个实现 AclPermissionEvaluator 会用到 SidRetrievalStrategy。
d) SidRetrievalStrategy 和 RoleHierarchy 的功能比较接近,比 RoleHierarchy 高一个抽象层次,功能上也有所区别,是从一个 authentication 拿到所有相关的 Sid(包括 Role(GrantedAuthoritySid) 和 User(PrincipalSid)),而 RoleHierarchy 只包括了 Role(GrantedAuthoritySid)的继承关系。
e) LookupStrategy 通过 ObjectIdentity 和 Sid 把相关的 Acl 查询出来。可以在 LookupStrategy 扩展 Acl 和 Ace 的功能,比如在 Ace 上面加上时间的条件限制,就需要自己定义 LookupStrategy,把时间条件从数据库查询出来,并放到自定义的 Ace 当中。
但这件事情非常麻烦,因为默认实现的 BasicLookupStrategy 是个 Final 的类,所以只能自己直接实现接口,无法使用现有的功能。
LookupStrategy 会生成 Acl,而最终的权限验证是由 Acl 完成的,如果想验证带时间条件的 Ace,需要给 Acl 设置自定义的带有检查时间功能的 PermissionGrantingStrategy,实际上,这个 PermissionGrantingStrategy 会首先设置给 LookupStrategy,LookupStrategy 在创建 Acl 的时候,再放到 Acl 中去。
f) SecurityExpressionHandler 能够执行 spel,得到是否可以访问的结果,它的子类都是继承自 AbstractSecurityExpressionHandler 的,有一个非常重要的方法是 SecurityExpressionOperations createSecurityExpressionRoot(Authentication authentication, T invocation),创建一个 SecurityExpressionOperations 放到 EvaluationContext 中去,提供 spel 中执行的方法实现。比如 SecurityExpressionOperations 的一个抽象实现 SecurityExpressionRoot 中,就包含了大量的权限验证方法,如 hasRole, hasPermission 等常用的功能。
g) AclService, MutableAclService, AclCache 概念比较简单,AclService 是通过 LookupStrategy 查询 Acl,自已可以查询 ObjectIdentity 的父子关联关系,MutableAclService 提供了修改的能力,AclCache 为 AclService 提供缓存,默认的实现了一个 EhCacheBasedAclCache。
3. ss 的鉴权模型 Sid, ObjectIdentity, Acl, Ace, Permission
a) Sid: 是中心,所有的授权会关联在 Sid 上面,Sid 和之前的 Role Base Permission 会有些相同的地方,但也明显不同,Sid 默认实现情况下,分为 GrantedAuthoritySid 和 PrincipalSid,其实就是 Role 和 User,通过 SidRetrievalStrategy 拿到一个 Authentication 的 Sid。
b) ObjectIdentity: 可以理解成 Resource,就是可访问的目标资源,有 id 和 type 两个字段,默认实现的 ObjectIdentityImpl 会直接调用目标 domainObject 的 getClass 和 getId 方法拿到两个参数。在 PermissionEvaluator, AfterInvocationProvider 中,会用到 ObjectIdentityRetrievalStrategy 和 ObjectIdentityGenerator,ObjectIdentityRetrievalStrategy 会根据 domainObject 拿到 ObjectIdentity,然后使用 Acl 进行鉴权,ObjectIdentityGenerator 会在系统提供的不是 domainObject,而是 type, id 的时候,拿到 ObjectIdentity,然后进行 Acl 鉴权,这两个接口有一个共同的实现 ObjectIdentityRetrievalStrategyImpl,如果需要在 ObjectIdentity 进行新的抽象,需要用新的实现,到得不同的 ObjectIdentity,比如将业务对象分类鉴权这样的需求。
c) Acl, 每个 ObjectIdentity 最多对应一条 Acl,Acl 中包含了很多,包括 parental,说明 Acl 是有继承关系的?其实不是,呵呵,是 ObjectIdentity 有继承关系而已。有一个 ObjectIdentity,有很多 Sid,还有一个叫做 Owner 的 Sid,有从 LookupStrategy 传过来的 PermissionGrantingStrategy,进行实际的鉴权,还有 AclAuthorizationStrategy 检查有没有权限进行 Acl security check。实现时间条件检查,就扩展 PermissionGrantingStrategy。
为什么没有 RoleHierarchy 或是 SidRetrievalStrategy 存在呢?是因为调用 Acl 进行权限检查之前,已经把相关的 Sid 得到了,再给 Acl 的。
d) Ace, Permission: Ace 存储 Sid, Permission,提供给 Acl 鉴权用。增加时间条件的话,最基本的,就是要在 Ace 中,增加时间条件字段。Permission 是用二进制存储的,但默认实现的数据库存储并不是,是一个一条,存在数据库里面的。

好吧,概念还是非常多的,不过鉴于权限控制本身就是个复杂的话题,ss 这些设计的我觉得已经非常好,也基本够用了。

@import url(http://www.blogjava.net/CuteSoft_Client/CuteEditor/Load.ashx?type=style&file=SyntaxHighlighter.css);@import url(/css/cuteeditor.css);
posted @ 2013-11-12 14:25 哈哈的日子 阅读(649) | 评论 (0)编辑 收藏
Security.setProperty("ssl.SocketFactory.provider", "com.datayes.cloud.util.TrustAllSSLSocketFactory");
package com.datayes.cloud.util;

import javax.net.ssl.SSLContext;
import javax.net.ssl.SSLSocketFactory;
import javax.net.ssl.TrustManager;
import javax.net.ssl.X509TrustManager;
import java.io.IOException;
import java.net.InetAddress;
import java.net.Socket;
import java.security.KeyManagementException;
import java.security.KeyStoreException;
import java.security.NoSuchAlgorithmException;
import java.security.UnrecoverableKeyException;
import java.security.cert.CertificateException;
import java.security.cert.X509Certificate;

public class TrustAllSSLSocketFactory extends SSLSocketFactory {
    SSLContext sslContext = SSLContext.getInstance("TLS");

    public TrustAllSSLSocketFactory() throws NoSuchAlgorithmException, KeyManagementException, KeyStoreException, UnrecoverableKeyException {
        TrustManager tm = new X509TrustManager() {
            public void checkClientTrusted(X509Certificate[] chain, String authType) throws CertificateException {
            }

            public void checkServerTrusted(X509Certificate[] chain, String authType) throws CertificateException {
            }

            public X509Certificate[] getAcceptedIssuers() {
                return null;
            }
        };
        sslContext.init(nullnew TrustManager[]{tm}, null);
    }

    @Override
    public Socket createSocket(Socket socket, String host, int port, boolean autoClose) throws IOException {
        return sslContext.getSocketFactory().createSocket(socket, host, port, autoClose);
    }


    @Override
    public Socket createSocket(String host, int port) throws IOException {
        return sslContext.getSocketFactory().createSocket(host, port);
    }

    @Override
    public Socket createSocket(String host, int port, InetAddress localHost, int localPort) throws IOException {
        return sslContext.getSocketFactory().createSocket(host, port, localHost, localPort);
    }

    @Override
    public Socket createSocket(InetAddress host, int port) throws IOException {
        return sslContext.getSocketFactory().createSocket(host, port);
    }

    @Override
    public Socket createSocket(InetAddress address, int port, InetAddress localAddress, int localPort) throws IOException {
        return sslContext.getSocketFactory().createSocket(address, port, localAddress, localPort);
    }

    @Override
    public Socket createSocket() throws IOException {
        return sslContext.getSocketFactory().createSocket();
    }

    @Override
    public String[] getDefaultCipherSuites() {
        return new String[0];
    }

    @Override
    public String[] getSupportedCipherSuites() {
        return new String[0];
    }
}
posted @ 2013-09-10 12:30 哈哈的日子 阅读(1584) | 评论 (0)编辑 收藏
主要是遇到的一些问题吧,顺便感谢一下帮助了我的人。安装之前,听说安装正式环境的 OpenStack 挺麻烦的,所以,出发点就是安装一个能测试使用的 Dev 环境就可以了,不求全,时间紧张,能用就行。所以,定位到 devstack(http://devstack.org),一键安装 OpenStack

问题
1. 想用 CentOS 来着,没原因,习惯了,后来发现,devstack 默认支持 ubuntu,为了简单,改用 ubuntu
2. 安装过程中,需要大量的网络下载,网速如果不快,挺急人的。
3. 安装到 stack.sh 的 191 行,会报错 [ERROR] ./stack.sh:191 g-api did not start,这个问题折腾了我好久,最后按照 https://answers.launchpad.net/glance/+question/231020 办法解决了,非常感谢 Marc PINHEDE (pinhede-marc) ,但在 https://bugs.launchpad.net/devstack/+bug/1119428 里,有人说只要修改 /etc/default/locale LANG="POSIX",就可以了,其实我两个都改了,也不知道是哪个产生了作用。但,第一种方法,需要安装到一半,失败了,才会有提到的 /opt/stack/glance/glance/notifier/notify_kombu.py 文件,但第二种方法,刚开始就可以尝试,所以我如果下次安装的话,会先把第二种配置修改好,如果安装失败了,再使用第一种方法继续。


posted @ 2013-08-06 10:19 哈哈的日子 阅读(616) | 评论 (0)编辑 收藏
在 compile hadoop-common 的时候,提示 protobuf 出错,查了一下,需要安装 protobuf(是一个非 Java 的组件)
先到 homebrew 上找到安装 homebrew 的方法 ruby -e "$(curl -fsSL https://raw.github.com/mxcl/homebrew/go)"
然后不能直接 brew install protobuf,因为会安装 1.5.0,也没办法编译过的,我试了。
需要先 brew versions protobuf,然后 cd `brew --prefix`(我默认的是 cd /usr/local),直接招待刚才 brew versions 出来的那个 git clone 方法。
然后再次 brew install protobuf ,就安装  1.4.1 了,继续 maven 就没有问题了。
posted @ 2013-07-24 13:24 哈哈的日子 阅读(369) | 评论 (0)编辑 收藏
在 .bash_profile 中增加一行 export JAVA_TOOL_OPTIONS=-Dfile.encoding=UTF-8 就可以了。


posted @ 2013-07-24 13:20 哈哈的日子 阅读(380) | 评论 (0)编辑 收藏
一直以来,总有人说 IDEA 这个 IDE 要比 Eclipse 好。中间也做过几次尝试,均告放弃。原因虽然各种各样,但归结起来,就是没时间,毕竟熟悉一个 IDE 是要时间的,项目中很少会有这么轻松的时候,又不愿意过多使用业余时间,就这样放下了。

最近有了一些时间,又把这东西拾起来看了看。不得不说,有些地方,做得还是很好的,当然,也有比 Eclipse 差的地方,我估计已经有无数人对比过了,我也不再比了,focus 在我的关注点上:“快捷键”

IDEA 因为使用的是原生的 Java 而不是 swt,对于平台集成方面,不如 Eclipse。
比如在 Eclipse 中,可以设置 Option + B 这样的快捷键,而 IDEA 不行,因为 Option + B 在 Mac 下是有输出字符的。

为了解决这个问题,我到 KeyRemap4MacBook 中,把 Option + B 改成 Option + Left,同理,把 Option + F 改成 Option + Right
这时,在 IDEA 中比较常用的快捷键 Command + Option + B 就变成了 Command + Option + Left,成了后退了。
还需要在 KeyRemap4MacBook 中把 Command + Option + B 恢复成他自己,而且一定要放在 Option + B 前面,否则就没用了。

最终,我得到了这样的 private.xml


<?xml version="1.0"?>
<root>
  <item>
    <name>haha</name>
    <identifier>private.haha</identifier>
    <autogen>--KeyToKey-- KeyCode::P,VK_CONTROL, KeyCode::CURSOR_UP</autogen>
    <autogen>--KeyToKey-- KeyCode::N,VK_CONTROL, KeyCode::CURSOR_DOWN</autogen>
    <autogen>__KeyToKey__ KeyCode::F,VK_OPTION, KeyCode::CURSOR_RIGHT,VK_OPTION</autogen>
    <autogen>__KeyToKey__ KeyCode::B,VK_OPTION,VK_COMMAND, KeyCode::B,VK_OPTION,VK_COMMAND</autogen>
    <autogen>__KeyToKey__ KeyCode::B,VK_OPTION, KeyCode::CURSOR_LEFT,VK_OPTION</autogen>
    <autogen>__KeyToKey__ KeyCode::D,VK_OPTION, KeyCode::FORWARD_DELETE,VK_OPTION</autogen>
  </item>
</root>
posted @ 2013-07-22 13:22 哈哈的日子 阅读(325) | 评论 (0)编辑 收藏
$(window).scroll(function() {
   if($(window).scrollTop() + $(window).height() == $(document).height()) {
       // load next
   }
});
posted @ 2012-12-19 18:10 哈哈的日子 阅读(430) | 评论 (0)编辑 收藏
把这个文件放到 WEB-INF/classes 下面,随便申请一个临时 License 就可以了,会变成 Enterprice 的,其它信息保留。
stash_2_crack.zip 
posted @ 2012-12-14 17:23 哈哈的日子 阅读(549) | 评论 (0)编辑 收藏
今天想在 log 里加上当前机器的 ip,找了一些文档,logback 支持 MDC(Mapped Diagnostic Contexts),可以很容易的把 ip 放到 log 中。

方法: 
1. 先在代码中加上一行 MDC.put("ip", InetAddress.getLocalHost().getHostAddress())
2. 然后在 logback 的 pattern 中加上 %X{ip} 即可

posted @ 2012-12-14 14:58 哈哈的日子 阅读(5134) | 评论 (0)编辑 收藏
vi /etc/yum.conf 将exclude=kernel* 去掉
posted @ 2012-12-14 13:45 哈哈的日子 阅读(360) | 评论 (0)编辑 收藏
1. 建立 winexe 环境,build winexe 并不麻烦,只不过官方文档比较少,下载到 source 之后,也不知道要如何 build。后来找到一个文档,介绍了过程
cd winexe-1.00/source4
./autogen.sh
./configure
make
./bin/winexe -U “<user>%<password>” //<windows system> cmd.exe

2. 如何远程执行,命令比较很简单,但又是环境问题,我们在 windows 下面建立了一个 administrators 组的用户,但无法执行,后来打开了 administrator 这个用户,终于命令可以执行了。
我们的脚本有两个步骤,1. 杀掉旧进程,2. 启动新的进程,如下:
    winexe -U "administrator%admin" //172.16.107.243 "taskkill /F /T /im java.exe"
    cat < /dev/null | winexe -U "administrator%admin" //172.16.107.243 "java -jar c:\agent\job-agent.jar" >> /home/glodon/logs/agent243.log 2>&1 &
启动新进程的时候,遇到了非常麻烦的事情,只能前台执行,nohup , & 这些完全不灵,如果 nohup,就会报错,后来得到了一个方法,cat < /dev/null | winexe 解决了这个问题。

3. jenkins 执行,jenkins 使用 Post Shell Plugin 来调用这个脚本,调用的时候一定要 nohup start.sh > /dev/null &,否则在执行完之后,会发个 sign,会把进程结束掉。
注意,还必须要 > /dev/null,否则就会出错,实在搞不明白原因。

弄好了这个,以后就方便了,心情也挺好。

posted @ 2012-12-14 13:25 哈哈的日子 阅读(441) | 评论 (0)编辑 收藏
呵呵,有图有真相。
用 ipad 发的 imessage,挺有意思的,不知不觉,孩子已经这么大了。

@import url(/css/cuteeditor.css);
posted @ 2012-11-21 16:24 哈哈的日子 阅读(645) | 评论 (0)编辑 收藏

主要完成了下面4个工作

1. 创建一个本地的目录结构,以存放 rpm 包
2. 启动一个 apache,使这些文件能够远程访问
3. 写一个 spec,并且用 rpmbuild 做成一个安装包,用来在机器上安装新的 repository 位置
4. 使用 yum downloadonly plugin 将需要的 rpm 包放到本地目录下,然后使用 createrepo 命令创建 metadata

本来是希望能有一个类似于 nexus 这样的 proxy host server 将远程的 package cache 下来,找来找去,也找到了一个 nexus yum plugin,但这个 plugin 只支持手工的 deploy rpm package 到 nexus 上面,不能做 proxy 方式的。

写写步骤和遇到的问题吧。

准备工作

  • 安装 createrepo, yum install createrepo
  • 安装 yum download only plugin, yum -y install yum-downloadonly
  • 安装 rpmbuild, yum -y install rpm-build
  • 确认已经安装了 apache nginx 之类的 http server

服务器步骤

  • 首先是创建目录结构,比如 mkdir -p /data/yum/centos/6/x86_64
  • 先增加 chef 的源,rpm -Uvh http://rbel.frameos.org/rbel6
  • 然后是通过 yum -y install rubygem-chef-server –downloadonly –downloaddir=/data/yum/centos/6/x86_64
  • 这时,已经可以去掉 chef 的公共源了,rpm -e rbel6-release
  • 创建本地库的 metadata,createrepo /data/yum/centos/6/x86_64,还有一些参数可用,比如 -p, pretty xml, -d create sqlite database files
  • 配置 apache,修改 /etc/httpd/conf/httpd.conf,修改 DocumentRoot 和 Directory 位置,改为 /data,并启动 httpd -k start,也可以使用 chkconfig –level 3 https on,每次开机启动

客户端步骤

  • 首先要制作安装 repository 位置的 rpm 包
  • 创建文件 haha.repo,放到 /root/rpmbuild/SOURCES 目录下,这个是将来 copy 到客户端的 /etc/yum.repos.d/ 目录下的配置文件,内容为
    [haha]
        name=haha
        baseurl=http://192.168.157.131/yum/centos/$releasever/$basearch/
        enabled=1
        gpgcheck=0
  • 再创建文件 build spec 文件,放到 /root/rpmbuild/SOURCES 目录下,是为了创建 rpm 包用的,haha.spec
    Summary:       haha
        Name:          haha
        Version:       0.1
        Release:       1
        Source0:       haha
        Group:         Applications/Internet
        License:       GPLv2+
        URL:           http://192.168.157.131/yum/
        #BuildRoot:     %{_tmppath}/%{name}-%{version}-root
        BuildArch:     noarch
    %description The haha yum repo #%prep #%setup -q %install mkdir -p $RPM_BUILD_ROOT/etc/yum.repos.d install -m 0644 -p %{SOURCE0} $RPM_BUILD_ROOT/etc/yum.repos.d
    %clean rm -rf ${RPM_BUILD_ROOT} %files /etc/yum.repos.d/haha.repo
  • 使用 rpmbuild -ba haha.spec,做出一个 rpm 包,位置在 /root/rpmbuild/RPMS/noarch 下面
  • 制作一次 rpm 后,就可以一直使用了,rpm -ivh xxx.rpm 就可以了

参考了
1. 自建yum源与制作RPM安装包yum源
2. yum只下载rpm包不自动安装方法
3. Installing Chef Server 0.10 in RHEL 6

posted @ 2012-11-07 21:39 哈哈的日子 阅读(315) | 评论 (0)编辑 收藏
最近很少用鼠标了,触摸板还是没有鼠标灵活的,所以,很大希望都寄托在键盘上面了,快捷键就变成了优先级最高的关注点。
Sublime Text 的快捷键总是零零散散记了一些的,今天才发现,原来在 Preferences -> Key Bindings - Default 里面有全部的快捷键定义,以后不知道什么的时候,来看一眼就好了。

posted @ 2012-10-26 15:47 哈哈的日子 阅读(270) | 评论 (0)编辑 收藏
想了好久好久了,终于买到了。老婆送的生日礼物,老婆大人实在是太体贴了!
之前给朋友买了一个红轴的机械键盘,只玩了几把 dota 就给人了,也没感觉到什么,反正我玩 dota 的水平提升了 10%,呵呵。
先说说拿到 hhkb 的感觉吧。

1. 个头,比想象的还要小,60 键的小键盘实在是太小了,喜欢!
2. 键盘包,我还顺便买了一个放 hhkb 的包,也是从日本带回来的(最近因为某人钓鱼的问题,搞得我怪紧张的),拿回来了才发现,made in china,nnd,这东西国内居然还买不到!实在是无语
3. 键位,刚开始的时候,对 Delete 的位置很不习惯,大概用了一个小时左右,大概习惯了。Ctrl 的位置是之前一直在用的,所以非常舒服。比较纠结的是方向键,我之前还以为左边会有一个 fn 键给我组合,没想到 pro 没有,只有 lite 才有,pro 只有右边有一个 fn,只好在需要方向键的时候,手离开主键盘区了。
4. 手感,手感实在是无与伦比了,用了这个打字之后,就不太愿意回到 mac 的巧克力键盘上了,差别的确有些大。
5. 声音,这玩意声音还有点儿大啊,比我之前想得还要大一些,在办公室的环境下,应该是不会影响到什么的,之前还是有点儿心虚,怕影响到别的,后来渐渐习惯了,发现别人根本就听不到,也就慢慢的放心了。呵呵

工作中遇到问题吧
因为主要是 Java 开发,所以 IDE 主要用的是 Eclipse,Eclipse 里面用 hhkb 有两个比较麻烦的地方:
1. 经常要用到方向键,比如语法提示之后,需要用上下来选择你要的那个,这个我用 keyremap4mac 把 Ctrl + N 和 Ctrl + P 直接改成上下了,可以用了。
2. Eclipse 经常要用到 Fx 键,这个相当麻烦,比如,切换 Editor 要 Cmd + F6,换 View 要 Cmd + F7,换视图要 Cmd + F8,执行最后执行的程序要 Cmd + Shift + F11,这时候,我就会发现,我已经有点儿搞不定了,没办法,我估计我要去修改 Eclipse 的快捷键了,因为那个 Cmd + F11 实在是太常用了。

遇到开心的事儿
在 Terminal 下面,用起来非常舒服的,这个键盘本来就是为了 vi , emacs 之类的东西存在的,在 Termial 标准的 Emacs 快捷键下,用起来非常好,基本不用想什么,就一切都很顺利了。
在 OS X 系统下,大部分时候 Emacs 的快捷键 Ctrl + fbnpaek 这些快捷键都是好用的,也是比较舒服的原因之一,但 Option + fbd 这类的快捷键经常不能用,比较郁闷。

无论如何,这个键盘还是带给了我不少的快乐,首先达到了 Happy 的效果,以后慢慢的来体会 Hacking 的感觉吧。
加油!
posted @ 2012-10-13 09:33 哈哈的日子 阅读(1723) | 评论 (1)编辑 收藏
http://dev.mysql.com/doc/refman/5.5/en/connector-j-reference-implementation-notes.html @import url(http://www.blogjava.net/CuteSoft_Client/CuteEditor/Load.ashx?type=style&file=SyntaxHighlighter.css);@import url(/css/cuteeditor.css);


ResultSet

By default, ResultSets are completely retrieved and stored in memory. In most cases this is the most efficient way to operate, and due to the design of the MySQL network protocol is easier to implement. If you are working with ResultSets that have a large number of rows or large values, and cannot allocate heap space in your JVM for the memory required, you can tell the driver to stream the results back one row at a time.

To enable this functionality, create a Statement instance in the following manner:

stmt = conn.createStatement(java.sql.ResultSet.TYPE_FORWARD_ONLY,
java.sql.ResultSet.CONCUR_READ_ONLY);
stmt.setFetchSize(Integer.MIN_VALUE);

The combination of a forward-only, read-only result set, with a fetch size of Integer.MIN_VALUE serves as a signal to the driver to stream result sets row-by-row. After this, any result sets created with the statement will be retrieved row-by-row.

There are some caveats with this approach. You must read all of the rows in the result set (or close it) before you can issue any other queries on the connection, or an exception will be thrown.

The earliest the locks these statements hold can be released (whether they be MyISAM table-level locks or row-level locks in some other storage engine such as InnoDB) is when the statement completes.

If the statement is within scope of a transaction, then locks are released when the transaction completes (which implies that the statement needs to complete first). As with most other databases, statements are not complete until all the results pending on the statement are read or the active result set for the statement is closed.

Therefore, if using streaming results, process them as quickly as possible if you want to maintain concurrent access to the tables referenced by the statement producing the result set.

posted @ 2012-06-29 13:15 哈哈的日子 阅读(471) | 评论 (0)编辑 收藏
在 Mac 上配置 Apache 和 SVN 极其方便。

序:
    之前在 Windows 上,因为心里美的原因,配置过 Apache 和 SVN 集成,使用 http 协议来访问 SVN。配置过程有些麻烦,也容易出错。
    后来,一直使用 svnserve -d,在 windows 上一般还会用 sc 命令做成 service,因为简单方便。

后来因为试验的目的,在 Mac 上配置了 Apache 和 SVN,我的 OS X 是 10.7 Lion
居然极其简单,只要在“系统偏好设置” -> “共享” 中,把 Web 共享打开,然后把个人网站点开(仅仅是不想修改全局配置文件)
然后修改文件 /private/etc/apache2/users/你的用户名.conf ,里面加上
# svn module
LoadModule dav_svn_module libexec/apache2/mod_dav_svn.so
LoadModule authz_svn_module libexec/apache2/mod_authz_svn.so

<Location /svn>
     DAV svn
     SVNListParentPath on
     SVNParentPath "/repository/svn/path"
</Location>

就可以了,
两个 svn 相关的 module 已经放好了,只要 load 一下就行。
配置方面还可以增加认证等等。为了权限管理得更细致,也可以使用 SVNPath 而不是 SVNParentPath。
唉,真是方便,Mac 用来开发,不错!

posted @ 2012-05-10 14:43 哈哈的日子 阅读(235) | 评论 (0)编辑 收藏
ssh 免密码登录,需要使用公私钥来认证@import url(http://www.blogjava.net/CuteSoft_Client/CuteEditor/Load.ashx?type=style&file=SyntaxHighlighter.css);@import url(/css/cuteeditor.css);

首先通过 ssh-keygen 生成一对公私钥,默认在 ~/.ssh/id_rsa.pub 和 ~/.ssh/id_rsa,前面的是公钥。
认证就是要把这个文件加到远程用户目录 ~/.ssh/authorized_keys 文件中,而且这个文件的权限不能被其它人访问。

下面的脚本能够自动把这个文件放到远程,方法是 ./addpk ip username password

#!//usr/bin/expect
set host [lrange $argv 0 0]
set user [lrange $argv 1 1]
set passwd [lrange $argv 2 2]
proc ssh {cmd} {
    global user host passwd
    spawn ssh $user@$host "$cmd"
    expect {
        "*conne*" {
            send "yes\n"
            expect "*password*"
            send "$passwd\n"
            expect eof
        }
        "*password*" {
            send "$passwd\n"
            expect eof
    }
    }
}
proc scp {src dest} {
    global user host passwd
    spawn scp $src $user@$host:$dest
    expect {
        "*conne*" {
            send "yes\n"
            expect "*password*"
            send "$passwd\n"
            expect eof
        }
        "*password*" {
            send "$passwd\n"
            expect eof
        }
    }
}
ssh "mkdir -p ~/.ssh"
scp "/home/user1/.ssh/id_rsa.pub" "~/.ssh/id_rsa.pub"
ssh "cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys"
ssh "uniq ~/.ssh/authorized_keys > ~/.ssh/authorized_keys.tmp"
ssh "mv ~/.ssh/authorized_keys.tmp ~/.ssh/authorized_keys"
ssh "chmod 700 ~/.ssh"
ssh "chmod 600 ~/.ssh/*"

posted @ 2012-05-08 09:38 哈哈的日子 阅读(733) | 评论 (0)编辑 收藏

在 Eclipse 中执行下面代码。



        byte[] bytes = new byte[]{-16, -97, -116, -70};

        String s = new String(bytes, "UTF-8");

        System.out.println(s);


结果打印出了一朵花,呵呵,实在是太有意思了。

@import url(http://www.blogjava.net/CuteSoft_Client/CuteEditor/Load.ashx?type=style&file=SyntaxHighlighter.css);@import url(/css/cuteeditor.css);
posted @ 2012-04-17 15:25 哈哈的日子 阅读(173) | 评论 (0)编辑 收藏
Picasa 像册真的很给力,2048 像素以下(包含)的照片不计算空间,据说 15 分钟以内的也不算空间,除了这些,有1G的空间可以使用。
我现在用的 Aperture 或者是 iPhoto 都有 Picasa Plugin,上传照片非常方便,除了需要fanqiang外,没什么其它问题了。
虽然 Aperture 和 Facebook, Flickr 好像集成的更好,可实际上,Facebook 像素低,还不能选,Flickr 空间有要求。
 
posted @ 2012-02-27 10:54 哈哈的日子 阅读(260) | 评论 (0)编辑 收藏
这个文件已经在 /Library/Java/JavaVirtualMachines/1.6.0_29-b11-402.jdk/Contents/Classes/classes.jar
这里了,我在混淆代码的时候会用到,只要做个 link 就好了,如下:
sudo ln -s /Library/Java/JavaVirtualMachines/1.6.0_29-b11-402.jdk/Contents/Classes/classes.jar /Library/Java/JavaVirtualMachines/1.6.0_29-b11-402.jdk/Contents/Home/lib/rt.jar

@import url(http://www.blogjava.net/CuteSoft_Client/CuteEditor/Load.ashx?type=style&file=SyntaxHighlighter.css);@import url(/css/cuteeditor.css);
posted @ 2012-02-10 10:48 哈哈的日子 阅读(2371) | 评论 (0)编辑 收藏
目前有一个 10 台机器的小网,只有其中一台机器能够通过外网访问,其它机器需要先 ssh 到外网机器,然后再 ssh 一下,才能访问到,很麻烦,一些 scp 之类的软件也没法使用。之前,我一直是用 secure crt 端口转发来做的,也算方便,缺点就是一直要开一个 secure crt 窗口,还不能断,否则就全断开了。

后来同事告诉了我一个办法,叫 iptables,利用这台外网机器自己来进行转发,试了一下,的确要更方便一些。

iptables 本身是用来做 linux 防火墙的,还有一些转发功能。

配置起来比较方便。iptables 的配置文件是放在 /etc/sysconfig/iptables 下面的,缺省是没有这个文件的,需要先执行

外网机器:
外网 ip: 202.118.1.125
内网 ip: 111.111.111.111
端口: 8112

内网机器:
ip: 111.111.111.112

命令:

iptables -t nat -A PREROUTING -d 202.118.1.125 -p tcp --dport 8112 -j DNAT --to-destination 111.111.111.112:22
iptables -t nat -A POSTROUTING -d 111.111.111.112 -p tcp --dport 22 -j SNAT --to 111.111.111.111
iptables -A FORWARD -o eth0 -d 111.111.111.112 -p tcp --dport 22 -j ACCEPT
iptables -A FORWARD -i eth0 -s 111.111.111.112 -p tcp --sport 22 -j ACCEPT

然后再 iptables-save 这个文件就出来了。

通过 service iptables restart 就可以启动 iptables 服务。
奇怪的是 111.111.111.111 这台机器并没有 listen 8112 的端口,但你只要 ssh 202.118.1.125 8112,就真的能够连到 111.111.111.112 这台机器上,算是留下一个疑问吧。

@import url(http://www.blogjava.net/CuteSoft_Client/CuteEditor/Load.ashx?type=style&file=SyntaxHighlighter.css);@import url(/css/cuteeditor.css);
posted @ 2012-01-29 16:04 哈哈的日子 阅读(1409) | 评论 (0)编辑 收藏
L-Larry_Lau@163.com#24777-1i8da63tvtyl2#1119
L-Larry_Lau@163.com#61624-1dvrt8wj18v1#6260
L-Larry_Lau@163.com#50028-se4zkrr1m6t1#10246
L-Larry_Lau@163.com#15600-189y158nwwvuk#339
L-Larry_Lau@163.com#30640-1lklqdbcjmhxs#4016
L-Larry_Lau@163.com#57474-53b2wr1311gnz#10228
L-Larry_Lau@163.com#19667-11r2awc10nqelb#4016
L-Larry_Lau@163.com#60353-pphob7wraf0y#515
L-Larry_Lau@163.com#65157-1ae6ytp7ygj8m#0012
L-Larry_Lau@163.com#16226-1n5h5951019s7s#7343
posted @ 2011-12-27 21:04 哈哈的日子 阅读(1521) | 评论 (1)编辑 收藏
@import url(http://www.blogjava.net/CuteSoft_Client/CuteEditor/Load.ashx?type=style&file=SyntaxHighlighter.css);@import url(/css/cuteeditor.css); 问题:
    1. centos 5.5 通过 yum 安装 mysql,启动,一切正常。但是,修改 my.cnf 中的 datadir 到自定义目录,并初始化好数据库,使用原来的 mysql 文件就无法启动了。
    2. 通过 heartbeat 启动 mysql 遇到同样的问题。

解决:
    修改 /etc/selinux/config 文件中的  SELINUX=disabled,就可以运行了。

过程:
    定位问题的过程中,发现,只要 copy 出来的 mysql 脚本,就可以执行,原来的依然不可以。或者 mysql 数据库文件放到 /var/lib/mysql 下,就可以,其它位置,就不行。
    猜测,文件属性有什么不一样的?通过 ls -l 看权限,和 lsattr 看属性,都一模一样。
    但,知道原因后,使用 ls -Z 可以看到 selinux 相关的属性,这些文件是不一样的。
    
原因:
    不太清楚原因,但肯定的是,selinux 相关属性影响的,有空仔细看看相关文档。

下面这篇写得不错:

http://www.linux.gov.cn/netweb/selinux.htm

SELinux简介

SELinux全称是Security Enhanced Linux,由美国国家安全部(National Security Agency)领导开发的GPL项目,它拥有一个灵活而强制性的访问控制结构,旨在提高Linux系统的安全性,提供强健的安全保证,可防御未知攻击,据称相当于B1级的军事安全性能。比MS NT所谓的C2等高得多。

应用SELinux后,可以减轻恶意攻击或恶意软件带来的灾难,并提供对机密性和完整性有很高要求的信息很高的安全保障。 SELinux vs Linux 普通Linux安全和传统Unix系统一样,基于自主存取控制方法,即DAC,只要符合规定的权限,如规定的所有者和文件属性等,就可存取资源。在传统的安全机制下,一些通过setuid/setgid的程序就产生了严重安全隐患,甚至一些错误的配置就可引发巨大的漏洞,被轻易攻击。

而SELinux则基于强制存取控制方法,即MAC,透过强制性的安全策略,应用程序或用户必须同时符合DAC及对应SELinux的MAC才能进行正常操作,否则都将遭到拒绝或失败,而这些问题将不会影响其他正常运作的程序和应用,并保持它们的安全系统结构。

SELinux的相关配置文件

SELinux的配置相关文件都在/etc/selinux下,其中/etc/selinux/targeted目录里就包含了策略的详细配置和context定义,以下是主要文件及功用:

/etc/selinux/targeted/contexts/*_context 默认的context设置 
/etc/selinux/targeted/contexts/files/* 精确的context类型划分 
/etc/selinux/targeted/policy/* 策略文件

Apache under SELinux

Apache under SELinux - 让Apache跑得顺起来!
对于刚使用Redhat Enterprise Linux 4 或Fedora Core 2以上/CentOS 4的用户,一定会为Apache经常无法正常运转,报以"Permission denied"等错误而大为不解,甚至大为恼火。
其实这是因为这些系统里激活了SELinux,而用户的apache配置与SELinux的配置策略有抵触产生的,只有通过适当调整,使apache的配置和访问符合策略才能正常使用。
现在下面来分析一下SELinux中有关httpd(apache)的context定义(略有删节)

/home/[^/]+/((www)|(web)|(public_html))(/.+)? system_u:object_r:httpd_user_content_t
/var/www(/.*)? system_u:object_r:httpd_sys_content_t
/var/www/cgi-bin(/.*)? system_u:object_r:httpd_sys_script_exec_t
/usr/lib/cgi-bin(/.*)? system_u:object_r:httpd_sys_script_exec_t
/var/www/perl(/.*)? system_u:object_r:httpd_sys_script_exec_t
/var/www/icons(/.*)? system_u:object_r:httpd_sys_content_t
/var/cache/httpd(/.*)? system_u:object_r:httpd_cache_t
/etc/vhosts -- system_u:object_r:httpd_config_t
/usr/sbin/httpd -- system_u:object_r:httpd_exec_t
/usr/sbin/apache(2)? -- system_u:object_r:httpd_exec_t
/usr/sbin/suexec -- system_u:object_r:httpd_suexec_exec_t
/var/log/httpd(/.*)? system_u:object_r:httpd_log_t
/var/log/apache(2)?(/.*)? system_u:object_r:httpd_log_t
/var/log/cgiwrap\.log.* -- system_u:object_r:httpd_log_t
/var/cache/ssl.*\.sem -- system_u:object_r:httpd_cache_t
/var/cache/mod_ssl(/.*)? system_u:object_r:httpd_cache_t
/var/run/apache(2)?\.pid.* -- system_u:object_r:httpd_var_run_t
/var/lib/httpd(/.*)? system_u:object_r:httpd_var_lib_t
/var/lib/php/session(/.*)? system_u:object_r:httpd_var_run_t
/etc/apache-ssl(2)?(/.*)? system_u:object_r:httpd_config_t
/usr/lib/apache-ssl(/.*)? -- system_u:object_r:httpd_exec_t
/usr/sbin/apache-ssl(2)? -- system_u:object_r:httpd_exec_t
/var/log/apache-ssl(2)?(/.*)? system_u:object_r:httpd_log_t
/var/run/apache-ssl(2)?\.pid.* -- system_u:object_r:httpd_var_run_t
/var/run/gcache_port -s system_u:object_r:httpd_var_run_t
/var/lib/squirrelmail/prefs(/.*)? system_u:object_r:httpd_squirrelmail_t
/usr/bin/htsslpass -- system_u:object_r:httpd_helper_exec_t
/usr/share/htdig(/.*)? system_u:object_r:httpd_sys_content_t
/var/lib/htdig(/.*)? system_u:object_r:httpd_sys_content_t

针对上述的内容,可以对如下的几个常见问题进行简单处理:

1.phpmyadmin在非默认/var/www/html目录下无法运转

通常类似的情况都是在配置了虚拟主机时,访问/phpmyadmin等提示403访问拒绝,日志里也提示Permission denied,这是因为phpmyadmin防止的目录及文件本身属性不符合context要求。
假设phpmyadmin放在/web目录下,那么执行:
chcon -R -t httpd_user_content_t /web
则会令/web及其下所有子目录/文件,包括phpmyadmin文件都获得了httpd_user_content_t的属性,如果其传统的Unix属性对httpd来说是可读的话,再重新访问一下就应该可以了。

2./home目录下的虚拟主机无法运转

与问题1也是类似的,不过根据上文中context的定义,/home目录下必须是用户的$HOME/www或public_html或web目录才是 httpd_user_content_t类型,因此建议将要作为web页面的内容放置在用户的$HOME/www或web或public_html里,并确保其属性是httpd_user_content_t,使用如下命令查看:
ls -Z /home/abc/
drwxr-xr-x abc abc user_u:object_r:user_home_dir_t tmp
drwxrwxr-x abc abc user_u:object_r:httpd_user_content www
如不是,则可通过chcon来逐级目录及文件更改,直至最后能访问:
chcon -R -t httpd_user_content_t /home/abc/web
chcon -t user_home_dir_t /home/abc

3.CGI程序无法运行

如果cgi程序放在/var/www/cgi-bin/里也无法执行,遇到403或500错误的话,可以检查cgi程序的属性,按SELinux contexts文件里定义的,/var/www/cgi-bin/里必须是httpd_sys_script_exec_t 属性。通过ls -Z查看,如果不是则通过如下命令更改:
chcon -t httpd_sys_script_exec_t /var/www/cgi-bin/*.cgi
如果是虚拟主机里的cgi,则参考问题2使之能正常使用普通的功能后,再通过chcon设置cgi文件的context为httpd_sys_script_exec_t即可。

4.Setuid/gid 程序无法运行

例如早期的SqWebMail及qmailadmin等,需要setuid/gid的支持,但在SELinux下这将受到严格限制。第一种方法是比较彻底的办法,能保留系统的安全性,通过:
audit2allow -l -i /var/log/messages
将SELinux拒绝的信息转换为相应的policy allow指令,将这些指令添加到SELinux policy 的src里相应的配置文件,重新生成policy并加载。但这样做相对比较麻烦。
另一个方法最简单,但将使apache得不到保护。首先确定SELinux 类型是targeted的:
cat /etc/selinux/config|grep SELINUXTYPE
然后,使apache脱离SELinux保护:
setsebool -P httpd_disable_trans 1
然后重启动apache:
/etc/init.d/httpd restart
这样所有apache强制的检查都失效,需要setuid/gid的程序可以正常使用。但这样带来了增加漏洞的危险,对于迫切需要运行而又很急的情况,本方法是一个最大限度减少系统安全缺失的最后办法。对于取消SELinux 未必是一个好方法。

SElinux的几个相关命令

一.

ps -Z
ls -Z
id -Z

例:
[root@ljj cgi-bin]# ls -Z
-rwxrwxrwx root root root:object_r:httpd_sys_script_exec_t a.cgi
-rw-r--r-- root root root:object_r:httpd_sys_script_exec_t a.txt

二. chcon

修改文件的属性 fild1:fild2:fild3

chcon -u fild1 file
chcon -l fild2 file
chcon -t fild3 file

例:
chcon -u root file1

三.getsebool

获取se相关的bool值
例:
[root@ljj cgi-bin]# getsebool -a | grep httpd
httpd_builtin_scripting --> inactive
httpd_disable_trans --> active
httpd_enable_cgi --> active
httpd_enable_homedirs --> active
httpd_ssi_exec --> active
httpd_tty_comm --> inactive
httpd_unified --> inactive

得到了一些与httpd相关的bool值,配置httpd.conf中的user_dir时,要保证这里的httpd_enable_homedirs是 active的,还要保证:

chcon -R -t httpd_sys_content_t ~user/public_html;

  • httpd与selinux之间的关系更多详见:man httpd_selinux

四. togglesebool

给se的相关bool值取反
例:
togglesebool httpd_enable_homedirs


posted @ 2011-12-22 18:41 哈哈的日子 阅读(605) | 评论 (0)编辑 收藏

本次操作环境:

Ubuntu Server 10.10  

SCSI Harddisk:/dev/sda       500GB

U盘:/dev/sdb    8GB(模拟成USB Harddisk,安装OS)

 

介绍2种分区表:
MBR分区表:(MBR含义:主引导记录)
所支持的最大卷:2T (T; terabytes,1TB=1024GB)
对分区的设限:最多4个主分区或3个主分区加一个扩展分区。

GPT分区表:(GPT含义:GUID分区表)
支持最大卷:18EB,(E:exabytes,1EB=1024TB)
每个磁盘最多支持128个分区

 

所以如果要大于2TB的卷或分区就必须得用GPT分区表。

 

Linux下fdisk工具不支持GPT,得使用另一个GNU发布的强大分区工具parted。

fdisk工具用的话,会有下面的警告信息:

WARNING: GPT (GUID Partition Table) detected on '/dev/sda'! The util fdisk doesn't support GPT. Use GNU Parted.

下面是用parted工具对/dev/sda做GPT分区的过程:

root@node01:/mnt# parted /dev/sda
GNU Parted 2.3
Using /dev/sda
Welcome to GNU Parted! Type 'help' to view a list of commands.

 

(parted) mklabel gpt                                                      
Warning: The existing disk label on /dev/sda will be destroyed and all data on this disk
will be lost. Do you want to continue?
Yes/No? yes         

   

(parted) print                                                            
Model: DELL PERC 6/i Adapter (scsi)
Disk /dev/sda: 500GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt

Number  Start  End  Size  File system  Name  Flags

 

(parted)mkpart primary 0KB 500GB
Warning: You requested a partition from 0.00B to 500GB.                   
The closest location we can manage is 17.4kB to 500GB.
Is this still acceptable to you?
Yes/No? yes                                                               
Warning: The resulting partition is not properly aligned for best performance.
Ignore/Cancel? Ignore                          

 

(parted) print                                                            
Model: DELL PERC 6/i Adapter (scsi)
Disk /dev/sda: 500GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt

Number  Start   End    Size   File system  Name     Flags
 1      17.4kB  500GB  500GB               primary

 

(parted)quit                                                             
Information: You may need to update /etc/fstab.                           

root@node01:/#fdisk -l

WARNING: GPT (GUID Partition Table) detected on '/dev/sda'! The util fdisk doesn't support GPT. Use GNU Parted.


Disk /dev/sda: 499.6 GB, 499558383616 bytes
255 heads, 63 sectors/track, 60734 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1               1       60735   487849983+  ee  GPT

root@node01:/#mkfs.ext4 /dev/sda1
mke2fs 1.41.12 (17-May-2010)
文件系统标签=
操作系统:Linux
块大小=4096 (log=2)
分块大小=4096 (log=2)
Stride=0 blocks, Stripe width=0 blocks
30490624 inodes, 121962487 blocks
6098124 blocks (5.00%) reserved for the super user
第一个数据块=0
Maximum filesystem blocks=4294967296
3722 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks: 
        32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 
        4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968, 
        102400000

正在写入inode表: 完成                            
Creating journal (32768 blocks): 完成
Writing superblocks and filesystem accounting information: 完成

This filesystem will be automatically checked every 24 mounts or
180 days, whichever comes first.  Use tune2fs -c or -i to override.

 

root@node01:/#mount /dev/sda1 /export/glusterfs01/


root@node01:/# df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/mapper/node01-root
                      6.8G  987M  5.5G  16% /
none                  7.9G  208K  7.9G   1% /dev
none                  7.9G     0  7.9G   0% /dev/shm
none                  7.9G   32K  7.9G   1% /var/run
none                  7.9G     0  7.9G   0% /var/lock
/dev/sdb1             228M   21M  196M  10% /boot
/dev/sda1             458G  198M  435G   1% /export/glusterfs01

 

root@node01:/#vi /etc/fstab

# /etc/fstab: static file system information.
#
# Use 'blkid -o value -s UUID' to print the universally unique identifier
# for a device; this may be used with UUID= as a more robust way to name
# devices that works even if disks are added and removed. See fstab(5).
#
# <file system> <mount point>   <type>  <options>       <dump>  <pass>
proc            /proc           proc    nodev,noexec,nosuid 0       0
/dev/mapper/node01-root /               ext4    errors=remount-ro 0       1
# /boot was on /dev/sdb1 during installation
UUID=c21707ff-ba0f-43ee-819a-8e72fa0f8500 /boot           ext2    defaults        0       2
/dev/mapper/node01-swap_1 none            swap    sw              0       0
/dev/sda1       /export/glusterfs01     ext4    defaults        0       2

 

重启就可以自动挂载了!至此完成。

@import url(http://www.blogjava.net/CuteSoft_Client/CuteEditor/Load.ashx?type=style&file=SyntaxHighlighter.css);@import url(/css/cuteeditor.css);
posted @ 2011-12-21 15:56 哈哈的日子 阅读(16443) | 评论 (0)编辑 收藏
1. cross join 就是笛卡尔积
那看起来好象和 inner join 是一样的,在 SQL 标准中定义的是 cross join 就是没有条件的 inner join。在 mysql 中,不区分,这两个等价。

2. natural (left) join 是把两个表名字一样的列,做相等条件处理,比如:

t1
id1 name

t2
id2 name

那么 select t1.id1, t2.id1, t1.name from t1 natural join t2 就等价

select t1.id1, t2.id1, t1.name from t1 join t2 on (t1.name = t2.name)

自动把一样名称的列(name)做了个相待条件处理,多列也会同时处理。

所以,这两种 join 没人用是有原因的。

cross join 没意义,一般用逗号就可以了。

natural 降低了可读性,不建议使用。
posted @ 2011-10-13 18:06 哈哈的日子 阅读(621) | 评论 (0)编辑 收藏
                一个好软件,会让人觉得赏心悦目
                 会让人心旷神怡
                 会开心
                 会……

H2DB 就是这样的一个好软件,就一个感觉----舒服!


比如:group by sort 的实现


    private void queryGroupSorted(int columnCount, ResultTarget result) {

        int rowNumber = 0;

        setCurrentRowNumber(0);

        Value[] previousKeyValues = null;

        while (topTableFilter.next()) {

            setCurrentRowNumber(rowNumber + 1);

            if (condition == null || Boolean.TRUE.equals(condition.getBooleanValue(session))) {

                rowNumber++;

                Value[] keyValues = new Value[groupIndex.length];

                // update group

                for (int i = 0; i < groupIndex.length; i++) {

                    int idx = groupIndex[i];

                    Expression expr = expressions.get(idx);

                    keyValues[i] = expr.getValue(session);

                }


                if (previousKeyValues == null) {

                    previousKeyValues = keyValues;

                    currentGroup = New.hashMap();

                } else if (!Arrays.equals(previousKeyValues, keyValues)) {

                    addGroupSortedRow(previousKeyValues, columnCount, result);

                    previousKeyValues = keyValues;

                    currentGroup = New.hashMap();

                }

                currentGroupRowId++;


                for (int i = 0; i < columnCount; i++) {

                    if (groupByExpression == null || !groupByExpression[i]) {

                        Expression expr = expressions.get(i);

                        expr.updateAggregate(session);

                    }

                }

            }

        }

        if (previousKeyValues != null) {

            addGroupSortedRow(previousKeyValues, columnCount, result);

        }

    }



看着太舒服了。

posted @ 2011-10-12 13:52 哈哈的日子 阅读(259) | 评论 (0)编辑 收藏
http://ivansmirnov.wordpress.com/2011/03/19/java-util-concurrent-locks-thread-dump/

The Sun JVM setting “-XX:+PrintConcurrentLocks” adds the lock owner information to the thread dump.
posted @ 2011-08-16 16:18 哈哈的日子 阅读(189) | 评论 (0)编辑 收藏
@import url(http://www.blogjava.net/CuteSoft_Client/CuteEditor/Load.ashx?type=style&file=SyntaxHighlighter.css);@import url(/css/cuteeditor.css);

http://en.wikipedia.org/wiki/Category:Unix_signals

1.SIGHUP信号

UNIX中进程组织结构为 session (会话)包含一个前台进程组及一个或多个后台进程组,一个进程组包含多个进程。一个session可能会有一个session首进程,而一个session首进程可能会有一个控制终端。一个进程组可能会有一个进程组首进程。进程组首进程的进程ID与该进程组ID相等。这儿是可能会有,在一定情况之下是没有的。与终端交互的进程是前台进程,否则便是后台进程。
SIGHUP会在以下3种情况下被发送给相应的进程:
1、终端关闭时,该信号被发送到session首进程以及作为job提交的进程(即用 & 符号提交的进程)
2、session首进程退出时,该信号被发送到该session中的前台进程组中的每一个进程
3、若父进程退出导致进程组成为孤儿进程组,且该进程组中有进程处于停止状态(收到SIGSTOP或SIGTSTP信号),该信号会被发送到该进程组中的每一个进程。
统对SIGHUP信号的默认处理是止收到信号的程。所以若程序中没有捕捉信号,当收到信号程就会退出。
下面观察几种因终端关闭导致进程退出的情况,在这儿进程退出是因为收到了SIGHUP信号。login shell是session首进程。
首先写一个测试程序,代码如下:
#include <stdio.h>
#include 
<signal.h>
char **args;
void exithandle(int
 sig)
{
        printf(
"%s : sighup received ",args[1
]);
}

int main(int argc,char **argv)
{
        args 
=
 argv;
        signal(SIGHUP,exithandle);
        pause();
       
return 0
;
}
程序中捕捉SIGHUP信号后打印一条信息,pause()使程序暂停。
编译后的执行文件为sigtest。
1、命 令:sigtest front > tt.txt
   操 作:关闭终端
   结 果:tt.txt文件的内容为front : sighup received
   原 因: sigtest是前台进程,终端关闭后,根据上面提到的第1种情况,login shell作为session首进程,会收到SIGHUP信号然后退出。根据第2种情况,sigtest作为前台进程,会收到login shell发出的SIGHUP信号。
2、命 令:sigtest back > tt.txt &
     操 作:关闭终端
      结 果:tt.txt文件的内容为 back : sighup received
      原 因: sigtest是提交的job,根据上面提到的第1种情况,sigtest会收到SIGHUP信号。
3、命 令:写一个shell,内容为[sigtest &],然后执行该shell
      操 作:关闭终端
      结 果:ps -ef | grep sigtest 会看到该进程还在,tt文件为空
      原 因: 执行该shell时,sigtest作为job提交,然后该shell退出,致使sigtest变成了孤儿进程,不再是当前session的job了,因此sigtest即不是session首进程也不是job,不会收到SIGHUP。同时孤儿进程属于后台进程,因此login shell退出后不会发送SIGHUP给sigtest,因为它只将该信号发送给前台进程。第3条说过若进程组变成孤儿进程组的时候,若有进程处于停止状态,也会收到SIGHUP信号,但sigtest没有处于停止状态,所以不会收到SIGHUP信号。
4、命 令:nohup sigtest > tt
      操 作:关闭终端
      结 果:tt文件为空
      原 因: nohup可以防止进程收到SIGHUP信号
至此,我们就清楚了何种情况下终端关闭后进程会退出,何种情况下不会退出。


要想终端关闭后进程不退出有以下几种方法,均为通过shell的方式:
1、编写shell,内容如下
       trap "" SIGHUP #该句的作用是屏蔽SIGHUP信号,trap可以屏蔽很多信号
      sigtest
2、nohup sigtest 可以直接在命令行执行,
       若想做完该操作后继续别的操作,可以 nohup sigtest &
3、编写shell,内容如下
       sigtest &
       其实任何将进程变为孤儿进程的方式都可以,包括fork后父进程马上退出。

2.SIGCHLD信号

       子进程死后,会发送SIGCHLD信号给父进程。

        一个进程在调用exit命令结束自己的生命的时候,其实它并没有真正的被销毁,而是留下一个称为僵尸进程(Zombie)的数据结构(系统调用exit,它的作用是使进程退出,但也仅仅限于将一个正常的进程变成一个僵尸进程,并不能将其完全销毁)。在Linux进程的状态中,僵尸进程 是非常特殊的一种,它已经放弃了几乎所有内存空间,没有任何可执行代码,也不能被调度,仅仅在进程列表中保留一个位置,记载该进程的退出状态等信息供其他进程收集,除此之外,僵尸进程不再占有任何内存空间。它需要它的父进程来为它收尸,如果他的父进程没安装SIGCHLD信号处理函数调用wait或waitpid()等待子进程结束,又没有显式忽略该信号,那么它就一直保持僵尸状态,如果这时父进程结束了,那么init进程自动会接手这个子进程,为它收尸,它还是能被清除的。但是如果如果父进程是一个循环,不会结束,那么子进程就会一直保持僵尸状态,这就是为什么系统中有时会有很多的僵尸进程。

2.SIGTERM信号

kill() 可以发 SIGTERM 过去;kill 命令默认也使用 SIGTERM 信号。

SIGTERM 信号的处理函数,常见的是用来清理、退出;或者程序可以忽略这个信号,以防误杀。
        SIGTERM is the default signal sent to a process by the kill or killall commands. It causes the termination of a process, but unlike the SIGKILLsignal, it can be caught and interpreted (or ignored) by the process. Therefore, SIGTERM is more akin to asking a process to terminate nicely, allowing cleanup and closure of files. For this reason, on many Unix systems during shutdown, init issues SIGTERM to all processes that are not essential to powering off, waits a few seconds, and then issues SIGKILL to forcibly terminate other processes to allow the computer to halt.




linux kill信号列表
2009-04-13 17:00
$ kill -l
1) SIGHUP 2) SIGINT 3) SIGQUIT 4) SIGILL
5) SIGTRAP 6) SIGABRT 7) SIGBUS 8) SIGFPE
9) SIGKILL 10) SIGUSR1 11) SIGSEGV 12) SIGUSR2
13) SIGPIPE 14) SIGALRM 15) SIGTERM 16) SIGSTKFLT 17) SIGCHLD
18) SIGCONT 19) SIGSTOP 20) SIGTSTP 21) SIGTTIN
22) SIGTTOU 23) SIGURG 24) SIGXCPU 25) SIGXFSZ
26) SIGVTALRM 27) SIGPROF 28) SIGWINCH 29) SIGIO
30) SIGPWR 31) SIGSYS 34) SIGRTMIN 35) SIGRTMIN+1
36) SIGRTMIN+2 37) SIGRTMIN+3 38) SIGRTMIN+4 39) SIGRTMIN+5
40) SIGRTMIN+6 41) SIGRTMIN+7 42) SIGRTMIN+8 43) SIGRTMIN+9
44) SIGRTMIN+10 45) SIGRTMIN+11 46) SIGRTMIN+12 47) SIGRTMIN+13
48) SIGRTMIN+14 49) SIGRTMIN+15 50) SIGRTMAX-14 51) SIGRTMAX-13
52) SIGRTMAX-12 53) SIGRTMAX-11 54) SIGRTMAX-10 55) SIGRTMAX-9
56) SIGRTMAX-8 57) SIGRTMAX-7 58) SIGRTMAX-6 59) SIGRTMAX-5
60) SIGRTMAX-4 61) SIGRTMAX-3 62) SIGRTMAX-2 63) SIGRTMAX-1
64) SIGRTMAX

列表中,编号为1 ~ 31的信号为传统UNIX支持的信号,是不可靠信号(非实时的),编号为32 ~ 63的信号是后来扩充的,称做可靠信号(实时信号)。不可靠信号和可靠信号的区别在于前者不支持排队,可能会造成信号丢失,而后者不会。

下面我们对编号小于SIGRTMIN的信号进行讨论。

1) SIGHUP
本信号在用户终端连接(正常或非正常)结束时发出, 通常是在终端的控制进程结束时, 通知同一session内的各个作业, 这时它们与控制终端不再关联。

登录Linux时,系统会分配给登录用户一个终端(Session)。在这个终端运行的所有程序,包括前台进程组和后台进程组,一般都属于这个 Session。当用户退出Linux登录时,前台进程组和后台有对终端输出的进程将会收到SIGHUP信号。这个信号的默认操作为终止进程,因此前台进 程组和后台有终端输出的进程就会中止。不过可以捕获这个信号,比如wget能捕获SIGHUP信号,并忽略它,这样就算退出了Linux登录,wget也 能继续下载。

此外,对于与终端脱离关系的守护进程,这个信号用于通知它重新读取配置文件。

2) SIGINT
程序终止(interrupt)信号, 在用户键入INTR字符(通常是Ctrl-C)时发出,用于通知前台进程组终止进程。

3) SIGQUIT
和SIGINT类似, 但由QUIT字符(通常是Ctrl-\)来控制. 进程在因收到SIGQUIT退出时会产生core文件, 在这个意义上类似于一个程序错误信号。

4) SIGILL
执行了非法指令. 通常是因为可执行文件本身出现错误, 或者试图执行数据段. 堆栈溢出时也有可能产生这个信号。

5) SIGTRAP
由断点指令或其它trap指令产生. 由debugger使用。

6) SIGABRT
调用abort函数生成的信号。

7) SIGBUS
非法地址, 包括内存地址对齐(alignment)出错。比如访问一个四个字长的整数, 但其地址不是4的倍数。它与SIGSEGV的区别在于后者是由于对合法存储地址的非法访问触发的(如访问不属于自己存储空间或只读存储空间)。

8) SIGFPE
在发生致命的算术运算错误时发出. 不仅包括浮点运算错误, 还包括溢出及除数为0等其它所有的算术的错误。

9) SIGKILL
用来立即结束程序的运行. 本信号不能被阻塞、处理和忽略。如果管理员发现某个进程终止不了,可尝试发送这个信号。

10) SIGUSR1
留给用户使用

11) SIGSEGV
试图访问未分配给自己的内存, 或试图往没有写权限的内存地址写数据.

12) SIGUSR2
留给用户使用

13) SIGPIPE
管道破裂。这个信号通常在进程间通信产生,比如采用FIFO(管道)通信的两个进程,读管道没打开或者意外终止就往管道写,写进程会收到SIGPIPE信号。此外用Socket通信的两个进程,写进程在写Socket的时候,读进程已经终止。

14) SIGALRM
时钟定时信号, 计算的是实际的时间或时钟时间. alarm函数使用该信号.

15) SIGTERM
程序结束(terminate)信号, 与SIGKILL不同的是该信号可以被阻塞和处理。通常用来要求程序自己正常退出,shell命令kill缺省产生这个信号。如果进程终止不了,我们才会尝试SIGKILL。

17) SIGCHLD
子进程结束时, 父进程会收到这个信号。

如果父进程没有处理这个信号,也没有等待(wait)子进程,子进程虽然终止,但是还会在内核进程表中占有表项,这时的子进程称为僵尸进程。这种情 况我们应该避免(父进程或者忽略SIGCHILD信号,或者捕捉它,或者wait它派生的子进程,或者父进程先终止,这时子进程的终止自动由init进程来接管)。

18) SIGCONT
让一个停止(stopped)的进程继续执行. 本信号不能被阻塞. 可以用一个handler来让程序在由stopped状态变为继续执行时完成特定的工作. 例如, 重新显示提示符...

19) SIGSTOP
停止(stopped)进程的执行. 注意它和terminate以及interrupt的区别:该进程还未结束, 只是暂停执行. 本信号不能被阻塞, 处理或忽略.

20) SIGTSTP
停止进程的运行, 但该信号可以被处理和忽略. 用户键入SUSP字符时(通常是Ctrl-Z)发出这个信号

21) SIGTTIN
当后台作业要从用户终端读数据时, 该作业中的所有进程会收到SIGTTIN信号. 缺省时这些进程会停止执行.

22) SIGTTOU
类似于SIGTTIN, 但在写终端(或修改终端模式)时收到.

23) SIGURG
有"紧急"数据或out-of-band数据到达socket时产生.

24) SIGXCPU
超过CPU时间资源限制. 这个限制可以由getrlimit/setrlimit来读取/改变。

25) SIGXFSZ
当进程企图扩大文件以至于超过文件大小资源限制。

26) SIGVTALRM
虚拟时钟信号. 类似于SIGALRM, 但是计算的是该进程占用的CPU时间.

27) SIGPROF
类似于SIGALRM/SIGVTALRM, 但包括该进程用的CPU时间以及系统调用的时间.

28) SIGWINCH
窗口大小改变时发出.

29) SIGIO
文件描述符准备就绪, 可以开始进行输入/输出操作.

30) SIGPWR
Power failure

31) SIGSYS
非法的系统调用。

在以上列出的信号中,程序不可捕获、阻塞或忽略的信号有:SIGKILL,SIGSTOP
不能恢复至默认动作的信号有:SIGILL,SIGTRAP
默认会导致进程流产的信号有:SIGABRT,SIGBUS,SIGFPE,SIGILL,SIGIOT,SIGQUIT,SIGSEGV,SIGTRAP,SIGXCPU,SIGXFSZ
默认会导致进程退出的信号有:SIGALRM,SIGHUP,SIGINT,SIGKILL,SIGPIPE,SIGPOLL,SIGPROF,SIGSYS,SIGTERM,SIGUSR1,SIGUSR2,SIGVTALRM
默认会导致进程停止的信号有:SIGSTOP,SIGTSTP,SIGTTIN,SIGTTOU
默认进程忽略的信号有:SIGCHLD,SIGPWR,SIGURG,SIGWINCH

此外,SIGIO在SVR4是退出,在4.3BSD中是忽略;SIGCONT在进程挂起时是继续,否则是忽略,不能被阻塞。

posted @ 2011-08-16 11:55 哈哈的日子 阅读(784) | 评论 (0)编辑 收藏
会报错
sudo: sorry, you must have a tty to run sudo @import url(http://www.blogjava.net/CuteSoft_Client/CuteEditor/Load.ashx?type=style&file=SyntaxHighlighter.css);@import url(/css/cuteeditor.css);

只要用 ssh -t 就可以了。

或者修改 /etc/suoders
将 requirestty 注释掉
posted @ 2011-08-15 12:05 哈哈的日子 阅读(1471) | 评论 (0)编辑 收藏
@import url(http://www.blogjava.net/CuteSoft_Client/CuteEditor/Load.ashx?type=style&file=SyntaxHighlighter.css);@import url(/css/cuteeditor.css);
1. 使用默认隔离级别 repeatable read
2. 开始,使用 select @@tx_isolation 确认当前 session 的隔离级别,并且创建个表 create table tt (id int, name varchar(300)) engine=innodb
3. 启动 transaction 1(t1),使用 start transaction
4. 启动 transaction 2(t2), 再开个 mysql,使用 start transaction
5. 在 t2 执行 select * from tt
6. 在 t1 执行 insert into tt  values(1, 'haha')
7. 在 t2 再次执行 select * from tt,是看不到数据的。
8. 在 t2 执行 update tt set name='hehe' where id=1
9. 在 t2 再再次执行 select * from tt,居然看到 id=1 那条 hehe 了!
10. 我们幻读了......

参考自:
http://blog.bitfly.cn/post/mysql-innodb-phantom-read/

原作者写得非常好


posted @ 2011-08-02 17:59 哈哈的日子 阅读(1458) | 评论 (4)编辑 收藏
     摘要: 转自:http://blog.csdn.net/wang382758656/article/details/5771332 @import url(http://www.blogjava.net/CuteSoft_Client/CuteEditor/Load.ashx?type=style&file=SyntaxHighlighter.css);@import url(/css/cuteed...  阅读全文
posted @ 2011-07-28 12:03 哈哈的日子 阅读(1333) | 评论 (2)编辑 收藏
@import url(http://www.blogjava.net/CuteSoft_Client/CuteEditor/Load.ashx?type=style&file=SyntaxHighlighter.css);@import url(/css/cuteeditor.css);
因为连接数的问题,我不得不在一台机器上多启 mysql instance

1. 建立两个 mysql 数据库实例
mysql_install_db --datadir=xxx
2. 配置 /etc/my.cnf

[client]
#password = your_password
#port = 3306
#socket = /var/lib/mysql/mysql.sock

# Here follows entries for some specific programs
[mysqld_multi] 
mysqld = /usr/bin/mysqld_safe 
mysqladmin = /usr/bin/mysqladmin 
user = mysql
password = mysql

[mysqld1]
datadir = /home/intple/mysql/data1
max_connections = 800

long_query_time = 0.1
#log-queries-not-using-indexes
slow_query_log = 1
slow_query_log_file = /var/log/mysql-slow.log

port = 3306
socket = /home/intple/mysql/data1/mysql.sock
skip-locking
key_buffer_size = 384M
max_allowed_packet = 1M
table_open_cache = 512
sort_buffer_size = 2M
read_buffer_size = 2M
read_rnd_buffer_size = 8M
myisam_sort_buffer_size = 64M
thread_cache_size = 32
query_cache_size = 512M
# Try number of CPU's*2 for thread_concurrency
thread_concurrency = 32

log-bin=mysql-bin

server-id = 1

binlog_format=mixed

innodb_buffer_pool_size = 20G
innodb_additional_mem_pool_size = 32M
innodb_thread_concurrency = 32
# Set .._log_file_size to 25 % of buffer pool size
innodb_log_file_size = 256M
innodb_log_buffer_size = 32M
innodb_flush_log_at_trx_commit = 1
innodb_autoextend_increment = 64M
innodb_lock_wait_timeout = 200

[mysqld2]
datadir = /home/intple/mysql/data2
max_connections = 800

long_query_time = 0.1
#log-queries-not-using-indexes
slow_query_log = 1
slow_query_log_file = /var/log/mysql2-slow.log

port = 3307
socket = /home/intple/mysql/data2/mysql2.sock
skip-locking
key_buffer_size = 384M
max_allowed_packet = 1M
table_open_cache = 512
sort_buffer_size = 2M
read_buffer_size = 2M
read_rnd_buffer_size = 8M
myisam_sort_buffer_size = 64M
thread_cache_size = 32
query_cache_size = 512M
# Try number of CPU's*2 for thread_concurrency
thread_concurrency = 32

log-bin=mysql-bin

server-id = 1

binlog_format=mixed

innodb_buffer_pool_size = 20G
innodb_additional_mem_pool_size = 32M
innodb_thread_concurrency = 32
# Set .._log_file_size to 25 % of buffer pool size
innodb_log_file_size = 256M
innodb_log_buffer_size = 32M
innodb_flush_log_at_trx_commit = 1
innodb_autoextend_increment = 64M
innodb_lock_wait_timeout = 200

[mysqldump]
quick
max_allowed_packet = 16M

[mysql]
no-auto-rehash
# Remove the next comment character if you are not familiar with SQL
#safe-updates

[myisamchk]
key_buffer_size = 256M
sort_buffer_size = 256M
read_buffer = 2M
write_buffer = 2M

[mysqlhotcopy]
interactive-timeout

3. 启动
mysqld_multi start 1 &
mysqld_multi start 2 &
posted @ 2011-07-12 15:59 哈哈的日子 阅读(562) | 评论 (0)编辑 收藏
应该是因为 ipv6 的原因,我 lsof -i -P | grep xxx , xxx 是那个 udp multicast 的 ip,是可以看到这个端口被使用了的,但还是一直报错。 Can't assign requested address
后来查了一下,在启动 java 参数上加上 -Djava.net.preferIPv4Stack=true 就解决了。
posted @ 2011-07-01 10:23 哈哈的日子 阅读(335) | 评论 (0)编辑 收藏

转自:http://xok.la/2010/01/mysqlslap_test.html

mysqlslap是官方提供的压力测试工具之一,官方介绍如下:

mysqlslap is a diagnostic program designed to emulate client load for a MySQL server and to report
the timing of each stage. It works as if multiple clients are accessing the server. mysqlslap is
available as of MySQL 5.1.4.

下面介绍一些常见参数:

--auto-generate-sql-write-number
每个线程中产生多少个insert
--auto-generate-sql-guid-primary
自动产生guid格式的主键
--number-of-queries=50000
每个连接客户端总共发起的查询次数
--concurrency=10,50,100
并发连接线程数,分别是10、50、100个并发
-i, --iterations
重复执行测试的次数
--number-char-cols=10
创建测试表的 char 型字段数量
--number-int-cols=10
创建测试表的 int 型字段数量

下面是一个完整的例子:

mysqlslap -hlocalhost -uroot --engine=innodb --auto-generate-sql-write-number=100000 \
--auto-generate-sql-guid-primary --concurrency=10,50,100 --number-of-queries=50000 \
--iterations=2 --number-char-cols=10 --number-int-cols=10 --auto-generate-sql \
--create-schema=sbtest --auto-generate-sql-load-type=mixed

具体的慢慢看手册吧,mysqlslap在mysql的目录的bin目录内。   

@import url(http://www.blogjava.net/CuteSoft_Client/CuteEditor/Load.ashx?type=style&file=SyntaxHighlighter.css);@import url(/css/cuteeditor.css);
posted @ 2011-06-28 16:58 哈哈的日子 阅读(185) | 评论 (0)编辑 收藏
按照如下步骤安装到 DBD::mysql 时,出错,提示找不到 mysql_config

perl -MCPAN -eshell
CPAN> install Time::HiRes
CPAN> install Term::ReadKey
CPAN> install DBI
CPAN> install DBD::mysql

需要到 mysql 网站下载

MySQL-devel-community-5.1.57-1.rhel5.x86_64.rpm

安装,才可以。
我找了半天。
posted @ 2011-06-22 13:39 哈哈的日子 阅读(178) | 评论 (0)编辑 收藏
转自:http://dolphin-ygj.iteye.com/blog/366314
vi替换命令用法详解
: ranges /pat1/pat2/g
其中
: 这是Vi的命令执行界面。
range 是命令执行范围的指定: 百分号(%)表示所有行
点(.)表示当前行
美元($)表示最末行

例如:
10,20表示第10到20行,
.,$表示当前行到最后一行,.
+2,$-5表示当前行后两行直到全文的倒数第五行

s 表示其后是一个替换命令。
pat1 这是要查找的一个正则表达式
pat2 这是希望把匹配串变成的模式的正则表达式

g 可选标志,带这个标志表示替换将针对行中每个匹配的串进行,否则则只替换行中第一个匹配串。


:/string #向下查找
:?stirng   # 向上查找


1

vi编辑命令责任编辑:黑色联想   更新日期:2006-9-7重复执行命令
数字N+命令     重复执行命令N次,如删除15行,就在命令状态下输入15dd
.              重复执行上一条命令
vi命令使用的一些选项及含义
-c sub-command 在对指定的文件编辑前,先执行指定的命令 sub-command .
-r filename 恢复指定的文件filename .
-R 将指定的文件以只读的方式放入编辑器中,这样不会保存对文件的任何修 改。
-y number 将编辑窗口的大小设为number行。
光标移动
命令模式下,在同一行上移动的子命令:
h   将光标左移一格
l   将光标右移一格
j   将光标下移一格
k   将光标上移一格
w   将光标移到下一个小字的前面
W  将光标移到下一个大字的前面
b   将光标移到前一个小字的前面
B   将光标移到前一个大字的前面
e   将光标移到下一个小字的后面
E   将光标移到前一个大字的后面
fc  把光标移到同一行的下一个c字符处
Fc  把光标移到同一行的前一个c字符处
tc  把光标移到同一行的下一个字符c的前一格
Tc  把光标移到同一行的前一个字符c的后一格
number|把光标移到递number列上
命令模式下在行间移动的子命令:     
+或Enter   把光标移至下一行第一个非空白字符
-   把光标移至上一行第一个非空白字符 
0   把光标移到当前行的第一个字符处
$   把光标移到当前行的最后一个字符处
H   把光标移到屏幕最顶端一行
L   把光标移到屏幕最底端一行
M  把光标移到屏幕中间
:number 光标移动到第number行
:$  光标移动到最后以行
屏幕翻滚类命令
Ctrl+u   向文件首翻半屏
Ctrl+d   向文件尾翻半屏
Ctrl+f   向文件尾翻一屏
Ctrl+b  向文件首翻一屏
nz     将第n行滚至屏幕顶部,不指定n时将当前行滚至屏幕顶部
插入文本
I   在光标前
I   在当前行首
a   光标后
A   在当前行尾
o   在当前行之下新开一行
O  在当前行之上新开一行
r   替换当前字符
R   替换当前字符及其后的字符,直至按ESC键
s   从当前光标位置处开始,以输入的文本替代指定数目的字符
S   删除指定数目的行,并以所输入文本代替之
ncw或nCW  修改n个单词
nCC修改指定数目的行
删除
x       删除光标所指的一个字母
X      删除光标左边的一个字母
dd     删除光标所在的一行文字,同时本行文字会放到缓存中
d0     删至行首
d$     删至行尾
D      删除本行光标右边的所有文字,包括光标位置的字母
d$     删除本行光标右边的所有文字,包括光标位置的字母
dw     删除光标右边的一个单词
ndw    删除n个单词
d1G       删除光标所在行以上的所有行
dG     删除光标所在行及光标以下所有行
复制
yy          复制本行文字到缓存中
number yy   复制number行到缓存中
粘贴
p      把缓存中的行粘贴到光标所在的下一行,
P      把缓存中的行粘贴到光标所在的上一行
替换
:s/pattern1/pattern2/g    把光标当前行的pattern1替换为pattern2
:%s/pattern1/pattern2/g   把所有行的pattern1替换为pattern2
:g/parttern1/s//parttern2  把所有行的pattern1替换为pattern2
:num1,num2 s/pattern1/pattern2/g     把num1到num2的partten1替换为partten2
被替换的文字用^表示行首,$表示行尾,如:%s/^/111/g就表示在每一行的行首插入111
文件
:r filename   把文件filename的内容粘贴在光标以下行
:w         保存当前编辑的文件名
:w filename  当filename不存在时,把修改后的文件存为文件filename ,当文件filename
存在时,报错。
!w filename  如果文件filename存在时,把修改后的文件保存为文件filename
:q         退出vi ,若文件被修改,系统不会让用户使用q命令退出
q!         不保存退出
x          保存退出
wq         保存退出
在多个文件之间切换
:n开始编辑vi激活的文件列表中的下一个文件
:n filenames 指定将被编辑的新的文件列表
在当前文件和另外一个文件间切换:
:e filename  使用filename激活vi(在vi中装入另一个文件filename)
e!         重新装入当前文件,若当前文件有改动,则丢弃以前的改动
:e+filename  使用filename激活vi ,并从文件尾部开始编辑
:e+number filename  使用filename激活vi ,并在第number行开始编辑
:e#        开始编辑另外一个文件
查找
/pattern     向后寻找指定的pattern ,若遇到文件尾,则从头再开始。
?pattern   向前寻找指定的pattern ,若遇到文件头,则从尾再开始。
n          在上次指定的方向上,再次执行上次定义的查找。
N         在上次指定的方向的相反方向上,再次执行上次定义的查找。
/pattern/+number    将光标停在包含pattern的行后面第number行上。
/pattern/-number     将光标停在包含pattern的行前面第number行上。
%                移到匹配的"()"或"{}"上。
选项设置
all         列出所有选项设置情况
term        设置终端类型
ignorance   在搜索中忽略大小写
list         显示制表位(Ctrl+I)和行尾标志($)
number    显示行号
report       显示由面向行的命令修改过的数目
terse       显示简短的警告信息
warn        在转到别的文件时若没保存当前文件则显示NO write信息
nomagic     允许在搜索模式中,使用前面不带“\”的特殊字符
nowrapscan 禁止vi在搜索到达文件两端时,又从另一端开始
mesg       允许vi显示其他用户用write写到自己终端上的信息
、在vi中使用的查找替换方法
利用 :s 命令可以实现字符串的替换。具体的用法包括:
:s/str1/str2/ 用字符串 str2 替换行中首次出现的字符串str1
:s/str1/str2/g 用字符串 str2 替换行中所有出现的字符串str1
:.,$ s/str1/str2/g 用字符串 str2 替换正文当前行到末尾所有出现的字符串str1
:1,$ s/str1/str2/g 用字符串 str2 替换正文中所有出现的字符串str1
:g/str1/s//str2/g 功能同上从上述替换命令可以看到:g 放在命令末尾,表示对搜索字符串的每次出现进行替换;不加 g,表示只对搜索字符串的首次出现进行替换;g 放在命令开头,表示对正文中所有包含搜索字符串的行进行替换操作。

2、在shell中使用find结合grep进行文件的替换
# find ./ -exec grep str1 ‘{}’ \; -exec sed -i.bak s/str1/str2/g ‘{}’ \;
上面命令可以在当前目录下(包括子目录)查找包含str1的文件,自动替换成str2,并且生成源文件的bak文件。

 
posted @ 2011-06-17 15:39 哈哈的日子 阅读(197) | 评论 (0)编辑 收藏
准备写一个说不清楚的问题,我表示鸭梨很大。

背景:
    1. 业务分区,多用户,用户间无交叉
    2. 水平切分,一张表存到两个库里去
Bug:
    用户1引用了用户2的数据(这不算什么,后面一句才重要),平时看不出来
问题:
    第一场
    用户1来了,建了一大堆东西。
    用户2来了,关联了用户1的东西,因为都分库到 s1, s2,所以,相安无事。
    第二场
    用户1来了,又建了一大堆东西。
    用户2来了,又想关联用户1的数据。但是,却分库到 s2, s1,注意顺序不一样,然后,没关联到,出错了。

我另外发现了一个问题,我真无聊。
posted @ 2011-06-07 17:18 哈哈的日子 阅读(138) | 评论 (0)编辑 收藏
目前项目有个需要,就是在所有查询的参数中,增加一个属性。
自然想到使用 interceptor 将每个 parameter wraper 一下,加上这个属性
我就使用 cglib 生成了一个 wrapper class,然后再 proxy 到原来的 parameter 上。

后来,出了错误,找了好长时间,发现
ibatis sql 中写着 isPrimary,可其实在 java 里是这样的

private boolean isPrimary;
public boolean isPrimary() {
    return isPrimary;
}

其实属性名字是 primary 啊,为什么在 wrapper 之前就不出错呢。

找了一下,ibatis 是通过他自己的 probe 来获得属性值的,这个 probe 不仅会通过方法取值,还会通过 field name 取值,没访问权限的,还会加上权限。

就是 ClassInfo 的下面方法


  private void addFields(Class clazz) {

    Field[] fields = clazz.getDeclaredFields();

    for (int i = 0; i < fields.length; i++) {

      Field field = fields[i];

      if (canAccessPrivateMethods()) {

        try {

          field.setAccessible(true);

        } catch (Exception e) {

          // Ignored. This is only a final precaution, nothing we can do.

        }

      }

      if (field.isAccessible()) {

        if (!setMethods.containsKey(field.getName())) {

          addSetField(field);

        }

        if (!getMethods.containsKey(field.getName())) {

          addGetField(field);

        }

      }

    }

    if (clazz.getSuperclass() != null) {

      addFields(clazz.getSuperclass());

    }

  }


解决办法,将 isPrimary 改成 primary

posted @ 2011-06-01 15:58 哈哈的日子 阅读(176) | 评论 (0)编辑 收藏
也一直使用 quartz,但没仔细看过,看了一个非常详细的文章,转发一下。另外,官方文档链接也附在下面:
http://www.quartz-scheduler.org/docs/tutorials/crontrigger.html

转自:http://wangrui.iteye.com/blog/150947

 一个Cron表达式是由7个子表达式组成的字符串,这些子表达式用空格分隔,其中最后一个子表达式是可选的,其他都是必须的。每个子表达式都描述了一个单独的日程细节。每一个子表达式的含义如下: 

子表达式名称(取值范围)(允许的特殊字符) 
1.Seconds秒 (0-59) (, - * /) 
2.Minutes分钟 (0-59) (, - * /) 
3.Hours小时 (0-23) (, - * /) 
4.Day-of-Month月中的天 (1-31) (, - * ? / L W) 
5.Month月 (1-12或JAN-DEC) (, - * /) 
6.Day-of-Week周中的天 (1-7或SUN-SAT) (, - * ? / L #) 
7.Year(optional)年(可选) (空或1970-2099) (, - * /) 

    一个cron表达式的例子字符串为"0 0 12 ? * WED",这表示“每周三的中午12:00”。 
    
    单个子表达式可以包含范围或者列表。例如:前面例子中的周中的天这个域(这里是"WED")可以被替换为"MON-FRI", "MON, WED, FRI"或者甚至"MON-WED,SAT"。 
    
    所有的域中的值都有特定的合法范围,这些值的合法范围相当明显,例如:秒和分域的合法值为0到59,小时的合法范围是0到23,Day-of-Month中值得合法凡范围是0到31,但是需要注意不同的月份中的天数不同。月份的合法值是0到11。或者用字符串JAN,FEB MAR, APR, MAY, JUN, JUL, AUG, SEP, OCT, NOV 及DEC来表示。Days-of-Week可以用1到7来表示(1=星期日)或者用字符串SUN, MON, TUE, WED, THU, FRI 和SAT来表示.  
    
    通配符('*')可以被用来表示域中“每个”可能的值。因此在"Month"域中的*表示每个月,而在Day-Of-Week域中的*则表示“周中的每一天”。 
    
    '?'字符可以用在day-of-month及day-of-week域中,它用来表示“没有指定值”。这对于需要指定一个或者两个域的值而不需要对其他域进行设置来说相当有用。 

    '/'字符用来表示值的增量,例如, 如果分钟域中放入'0/15',它表示“每隔15分钟,从0开始”,如果在份中域中使用'3/20',则表示“小时中每隔20分钟,从第3分钟开始”或者另外相同的形式就是'3,23,43'。 

    'L'字符可以在day-of-month及day-of-week中使用,这个字符是"last"的简写,但是在两个域中的意义不同。例如,在day-of-month域中的"L"表示这个月的最后一天,即,一月的31日,非闰年的二月的28日。如果它用在day-of-week中,则表示"7"或者"SAT"。但是如果在day-of-week域中,这个字符跟在别的值后面,则表示"当月的最后的周XXX"。例如:"6L" 或者 "FRIL"都表示本月的最后一个周五。当使用'L'选项时,最重要的是不要指定列表或者值范围,否则会导致混乱。 

    'W' 字符用来指定距离给定日最接近的周几(在day-of-week域中指定)。例如:如果你为day-of-month域指定为"15W",则表示“距离月中15号最近的周几”。 

    '#'表示表示月中的第几个周几。例如:day-of-week域中的"6#3" 或者 "FRI#3"表示“月中第三个周五”。 
posted @ 2011-05-30 10:23 哈哈的日子 阅读(243) | 评论 (0)编辑 收藏
1. 在之前的2.x版本下,我一般编译程序到机子的做法是修改xproject去掉iPhone Developer的方法,(参考http://www.cocoachina.com/bbs/read.php?tid-1822-fpage-4.html )
如果以前这样修改过xproject文件的,要先恢复到原始状态,把iPhone Developer那句话加回去(随意找个2.x时期的官方sample就有)
2. 制作自己的证书,制作方法参考http://www.weiphone.com/thread-222380-1-1.html ,说明的是,最后的存放位置据说应该是登录(login)而不是系统,反正我现在用的就是登录.
3. 打开终端,执行如下代码,这个是XCode的补丁,因为在3.13的xcode修补了3.12的免签名漏洞,打这个补丁才行
#!/bin/bash
cd /Developer/Platforms/iPhoneOS.platform/Developer/Library/Xcode/Plug-ins/iPhoneOS\ Build\ System\ Support.xcplugin/Contents/MacOS/
dd if=iPhoneOS\ Build\ System\ Support of=working bs=500 count=255
printf "\x8f\x2a\x00\x00" >> working
dd if=iPhoneOS\ Build\ System\ Support of=working bs=1 skip=127504 seek=127504
/bin/mv -n iPhoneOS\ Build\ System\ Support iPhoneOS\ Build\ System\ Support.original
/bin/mv working iPhoneOS\ Build\ System\ Support
chmod a+x iPhoneOS\ Build\ System\ Support
 
或者你懒的去执行,也可以下载这个文件(要解压下)    patch.sh.zip (1 K) 下载次数:103 放在用户根目录,执行
sudo sh ./patch.sh

4. 在终端执行如下命令

mkdir /Developer/iphoneentitlements30
cd /Developer/iphoneentitlements30
curl -O http://www.alexwhittemore.com/iphone/gen_entitlements.txt 
mv gen_entitlements.txt gen_entitlements.py
chmod 777 gen_entitlements.py

5. XCode中打开你的project,在菜单project->New Build Phase > New Run Script Build Phase,那个script空白框,拷贝如下代码进去

export CODESIGN_ALLOCATE=/Developer/Platforms/iPhoneOS.platform/Developer/usr/bin/codesign_allocate
if [ "${PLATFORM_NAME}" == "iphoneos" ]; then
/Developer/iphoneentitlements30/gen_entitlements.py "my.company.${PROJECT_NAME}" "${BUILT_PRODUCTS_DIR}/${WRAPPER_NAME}/${PROJECT_NAME}.xcent";
codesign -f -s "iPhone Developer" --resource-rules "${BUILT_PRODUCTS_DIR}/${WRAPPER_NAME}/ResourceRules.plist" \
--entitlements "${BUILT_PRODUCTS_DIR}/${WRAPPER_NAME}/${PROJECT_NAME}.xcent"  "${BUILT_PRODUCTS_DIR}/${WRAPPER_NAME}/"
fi
 

6. 修改"/Developer/Platforms/iPhoneOS.platform/Info.plist"文件,默认是用Property List Editor打开,然后添加:
PROVISIONING_PROFILE_ALLOWED = NO
PROVISIONING_PROFILE_REQUIRED = NO

7. 在你的project的info.list里面增加一行,也就是你之前步骤2建的自定义的证书名字啦.
SignerIdentity=iPhone Developer 

8. 把你的iphone连接到电脑,提示连接成功,后 xcode菜单,window->Organizer里面,把iphone设为调试设备.
对了,我忘记了我做的一个步骤,不知道是不是必须的,这里补上
9. iphone要安装MobileInstallation Patch ,安装步骤:打开cydia,进入manage->sources->edit->Add,在网址输入框里面输入www.iphone.org.hk/adp/ 
完成后,进入sources 可以看到www.iphone.org.hk 这个网站,然后进去,可以找到MobileInstallation Patch,点击安装即可.
安装完成重启手机.
posted @ 2011-05-17 00:29 哈哈的日子 阅读(240) | 评论 (0)编辑 收藏

转自:http://blog.csdn.net/cafecheng/archive/2009/07/17/4357248.aspx



H2, HSQLDB, DERBY, POSTGRESQL, MYSQL

openSourceDatabaseComparison

posted @ 2011-05-06 16:58 哈哈的日子 阅读(1094) | 评论 (0)编辑 收藏
     摘要: 转自:http://www.001pp.com/chengxuyouhua/mysql%20xingnengyouhua2183.html 网上有不少mysql 性能优化方案,不过,mysql的优化同sql server相比,更为麻烦与负责,同样的设置,在不同的环境下 ,由于内存,访问量,读写频率,数据差异等等情况,可能会出现不同的结果,因此简单地根据某个给出方案来配置mysql是行不通的,...  阅读全文
posted @ 2011-05-04 15:50 哈哈的日子 阅读(179) | 评论 (0)编辑 收藏

转自 http://imysql.cn/node/609

作/译者:吴炳锡,来源:http://imysql.cn & http://imysql.cn/blog/3208 转载请注明作/译者和出处,并且不能用于商业用途,违者必究。

 

介绍:
InnoDB给MySQL提供了具有提交,回滚和崩溃恢复能力的事务安全(ACID兼容)存储引擎。InnoDB锁定在行级并且也在SELECT语句提供一个Oracle风格一致的非锁定读。这些特色增加了多用户部署和性能。没有在InnoDB中扩大锁定的需要,因为在InnoDB中行级锁定适合非常小的空间。InnoDB也支持FOREIGN KEY强制。在SQL查询中,你可以自由地将InnoDB类型的表与其它MySQL的表的类型混合起来,甚至在同一个查询中也可以混合。
Innodb 的创始人:Heikki Tuuri
Heikki Tuuri在Innodb的Bug社区里也是很活跃的,如果遇到Bug也可以直接提到社区,得到作者的解答。

为什么要学习Innodb的调优:
目前来说:InnoDB是为Mysql处理巨大数据量时的最大性能设计。它的CPU效率可能是任何其它基于磁盘的关系数据库引擎所不能匹敌的。在数据量大的网站或是应用中Innodb是倍受青睐的。
另一方面,在数据库的复制操作中Innodb也是能保证master和slave数据一致有一定的作用。

参数调优内容:
  1. 内存利用方面
2. 日值控制方面
3. 文件IO分配,空间占用方面
4. 其它相关参数

1.内存利用方面:
首先介绍一个Innodb最重要的参数:
innodb_buffer_pool_size
这个参数和MyISAM的key_buffer_size有相似之处,但也是有差别的。这个参数主要缓存innodb表的索引,数据,插入数据时的缓冲。为Innodb加速优化首要参数。
该参数分配内存的原则:这个参数默认分配只有8M,可以说是非常小的一个值。如果是一个专用DB服务器,那么他可以占到内存的70%-80%。这个参数不能动态更改,所以分配需多考虑。分配过大,会使Swap占用过多,致使Mysql的查询特慢。如果你的数据比较小,那么可分配是你的数据大小+10%左右做为这个参数的值。例如:数据大小为50M,那么给这个值分配innodb_buffer_pool_size=64M
设置方法:
innodb_buffer_pool_size=4G
这个参数分配值的使用情况可以根据show innodb status\G;中的
----------------------
BUFFER POOL AND MEMORY
----------------------
Total memory allocated 4668764894;
 
去确认使用情况。


第二个:
innodb_additional_mem_pool:
作用:用来存放Innodb的内部目录
这个值不用分配太大,系统可以自动调。不用设置太高。通常比较大数据设置16M够用了,如果表比较多,可以适当的增大。如果这个值自动增加,会在error log有中显示的。
分配原则:
show innodb status\G;去查看运行中的DB是什么状态(参考BUFFER POOL AND MEMORY段中),然后可以调整到适当的值。
----------------------
BUFFER POOL AND MEMORY
----------------------
Total memory allocated 4668764894; in additional pool allocated 16777216
参考:in additional pool allocated 16777216
根据你的参数情况,可以适当的调整。
设置方法:
innodb_additional_mem_pool=16M


2.关于日值方面:
innodb_log_file_size
作用:指定日值的大小
分配原则:几个日值成员大小加起来差不多和你的innodb_buffer_pool_size相等。上限为每个日值上限大小为4G.一般控制在几个LOG文件相加大小在2G以内为佳。具体情况还需要看你的事务大小,数据大小为依据。
说明:这个值分配的大小和数据库的写入速度,事务大小,异常重启后的恢复有很大的关系。
设置方法:
innodb_log_file_size=256M


innodb_log_files_in_group
作用:指定你有几个日值组。
分配原则: 一般我们可以用2-3个日值组。默认为两个。
设置方法:
innodb_log_files_in_group=3


innodb_log_buffer_size:
作用:事务在内存中的缓冲。
分配原则:控制在2-8M.这个值不用太多的。他里面的内存一般一秒钟写到磁盘一次。具体写入方式和你的事务提交方式有关。在Oracle等数据库了解这个,一般最大指定为3M比较合适。
参考:Innodb_os_log_written(show global status 可以拿到)
如果这个值增长过快,可以适当的增加innodb_log_buffer_size
另外如果你需要处理大理的TEXT,或是BLOB字段,可以考虑增加这个参数的值。
设置方法:
innodb_log_buffer_size=3M

innodb_flush_logs_at_trx_commit
作用:控制事务的提交方式
分配原则:这个参数只有3个值,0,1,2请确认一下自已能接受的级别。默认为1,主库请不要更改了。
性能更高的可以设置为0或是2,但会丢失一秒钟的事务。
说明:
这个参数的设置对Innodb的性能有很大的影响,所以在这里给多说明一下。
当这个值为1时:innodb 的事务LOG在每次提交后写入日值文件,并对日值做刷新到磁盘。这个可以做到不丢任何一个事务。
当这个值为2时:在每个提交,日志缓冲被写到文件,但不对日志文件做到磁盘操作的刷新,在对日志文件的刷新在值为2的情况也每秒发生一次。但需要注意的是,由于进程调用方面的问题,并不能保证每秒100%的发生。从而在性能上是最快的。但操作系统崩溃或掉电才会删除最后一秒的事务。
当这个值为0时:日志缓冲每秒一次地被写到日志文件,并且对日志文件做到磁盘操作的刷新,但是在一个事务提交不做任何操作。mysqld进程的崩溃会删除崩溃前最后一秒的事务。

从以上分析,当这个值不为1时,可以取得较好的性能,但遇到异常会有损失,所以需要根据自已的情况去衡量。


设置方法:
innodb_flush_logs_at_trx_commit=1

3. 文件IO分配,空间占用方面
innodb_file_per_table
作用:使每个Innodb的表,有自已独立的表空间。如删除文件后可以回收那部分空间。
分配原则:只有使用不使用。但DB还需要有一个公共的表空间。
设置方法:
innodb_file_per_table=1

innodb_file_io_threads
作用:文件读写IO数,这个参数只在Windows上起作用。在LINUX上只会等于4
设置方法:
innodb_file_io_threads=4

innodb_open_files
作用:限制Innodb能打开的表的数据。
分配原则:如果库里的表特别多的情况,请增加这个。这个值默认是300。
设置方法:
innodb_open_files=800 
请适当的增加table_cache


4. 其它相关参数
这里说明一个比较重要的参数:
innodb_flush_method
作用:Innodb和系统打交道的一个IO模型
分配原则:Windows不用设置。
Unix可以设置:fsync() or O_SYNC/O_DSYNC
如果系统可以禁止系统的Cache那就把他禁了。
Linux可以选择:O_DIRECT 
直接写入磁盘,禁止系统Cache了
设置方法:
innodb_flush_method=O_DIRECT

innodb_max_dirty_pages_pct 
作用:控制Innodb的脏页在缓冲中在那个百分比之下,值在范围1-100,默认为90.
这个参数的另一个用处:当Innodb的内存分配过大,致使Swap占用严重时,可以适当的减小调整这个值,使达到Swap空间释放出来。建义:这个值最大在90%,最小在15%。太大,缓存中每次更新需要致换数据页太多,太小,放的数据页太小,更新操作太慢。
设置方法:
innodb_max_dirty_pages_pct=90
动态更改需要有Super权限:
set global innodb_max_dirty_pages_pct=50;

总结:
这里只算是列出了Innodb部分的重要参数,不能认为是对Mysql的整体调优。Mysql的参数一般分为:全局参数,具体引擎的参数。全局参数方面请参考http://imysql.cn/2007_12_08_optimize_mysql_under_linux yejr的那个Mysql调优的PPT。

posted @ 2011-05-04 15:37 哈哈的日子 阅读(209) | 评论 (0)编辑 收藏
手动创建目录 .ssh 的时候,权限可能不对,默认应该是 775,这样不行,需要改成 755 或者 700 之类的,才可以。
authorized_keys 文件权限也要改成 600

顺便把步骤写一下:

1. ssh-keygen 生成 key pair,默认是 rsa 的
2. 把 public key 放到服务器上,然后执行 cat xxx >> ~/.ssh/authorized_keys,xxx 是 public key 文件名

posted @ 2011-05-04 10:04 哈哈的日子 阅读(194) | 评论 (0)编辑 收藏
     摘要: 转自:http://blogold.chinaunix.net/u3/102731/showart_2270571.html http://book.51cto.com/art/200803/68118.htm 摘要:《深 入浅出MySQL——数据库开发、优化与管理维护》从数据库的基础、开发、优化、管理4方面对MySQL进行了详细的介绍,其中每一部分都独立成篇,每一 篇又包括多个章节。本书...  阅读全文
posted @ 2011-04-26 11:29 哈哈的日子 阅读(595) | 评论 (0)编辑 收藏
转自:http://5iwww.blog.51cto.com/856039/340985


shell> mysqlbinlog log-file
使用mysqldumpslow命令获得日志中显示的查询摘要来处理慢查询日志, 例如:
[zzx@bj37 data]$ mysqldumpslow bj37-slow.log

一.1 获 取锁等待情况
可以通过检查 table_locks_waited和table_locks_immediate状态变量来分析系统上的表锁定争夺:
mysql> show status like 'Table%';
+----------------------------+----------+
| Variable_name | Value |
+----------------------------+----------+
| Table_locks_immediate | 105 |
| Table_locks_waited | 3 |
+----------------------------+----------+
2 rows in set (0.00 sec)
可以通过检查 Innodb_row_lock状态变量来分析系统上的行锁的争夺情况:
mysql> show status like 'innodb_row_lock%';
+----------------------------------------+----------+
| Variable_name | Value |
+----------------------------------------+----------+
| Innodb_row_lock_current_waits | 0 |
| Innodb_row_lock_time | 2001 |
| Innodb_row_lock_time_avg | 667 |
| Innodb_row_lock_time_max | 845 |
| Innodb_row_lock_waits | 3 |
+----------------------------------------+----------+
5 rows in set (0.00 sec)
另外,针对Innodb类型的表,如果 需要察看当前的锁等待情况,可以设置InnoDB Monitors,然后通过Show innodb status察看,设置的方式是:
CREATE TABLE innodb_monitor(a INT) ENGINE=INNODB;
监视器可以通过发出下列语句来被停止:
DROP TABLE innodb_monitor;
设置监视器后,在show innodb status的显示内容中,会有详细的当前锁等待的信息,包括表名、锁类型、锁定记录的情况等等,便于进行进一步的分析和问题的确定。打开监视器以后,默 认情况下每15秒会向日志中记录监控的内容,如果长时间打开会导致.err文件变得非常的巨大,所以我们在确认问题原因之后,要记得删除监控表以关闭监视 器。或者通过使用--console选项来启动服务器以关闭写日志文件。


如果是root帐号,你能看到所有用户的当前连接。如果是其它普通帐号,只能看到自己占用的连接。 
show processlist;只 列出前100条,如果想全列出请使用show full processlist; 
mysql> show processlist;(非常管用哦)
posted @ 2011-04-26 10:17 哈哈的日子 阅读(2863) | 评论 (0)编辑 收藏
转自51cto:http://g.51cto.com/mike/67136

动innodb_monitor的方法
 
在使用Innodb做为存储引擎的数据库系统中,可以使用innodb_monitor 来监控数据库的性能,启动innodb_monitor的方法为 Create table innodb_monitor (i int) engine=innodb 通过建立这个表就启动了innodb_monitor,监控的结果并不会记录到这个表中,而是记录到了mysql的err日志中,如果我们想监控更我的关于innodb的锁信息还可更进一步的建立表create table innodb_lock_monitor (i int) engine=innodb 这样在日志中会加入更多的锁信息,如果要关闭监控只要简单的删除这两个表就可以了.Drop table innodb_monitor; drop table innodb_lock_monitor;
 
用InnoDB monitor 可以监控死锁的情况等用InnoDB monitor 可以监控死锁的情况等
 
InnoDB引擎提供了一个monitor,可以通过monitor一窥其内部的一些统计信息,也可以说是了解InnoDB引擎的一个很好的窗口。
我们最熟悉的,应当就是show innodb status命令,可以直接在客户端输出很多的信息。其实InnoDB monitor一共有四种模式,show innodb status只是其一种模式的直接展现,并且只能交互式开启,无法自动循环捕获信息。另外还有一种适合四种模式的开启方式,则是通过创建一张特殊的innodb表来开启,开启后会按照固定的时间间隔循环,输出信息到log-error参数指定的错误日志文件中,通过drop对应的表,可以停止monitor。
四种monitor分别是:
  • innodb_monitor:create table innodb_monitor(x int) engine=innodb;
  • innodb_lock_monitor:create table innodb_lock_monitor(x int) engine=innodb;
  • innodb_table_monitor:create table innodb_table_monitor(x int) engine=innodb;
  • innodb_tablespace_monitor:create table innodb_tablespace_monitor(x int) engine=innodb;
根据我在5.1.36版本中实际观察到的结果,innodb_monitor/innodb_lock_monitor开启后的执行周期是16s参考手册上说是15s),而innodb_table_monitor/innodb_tablespace_monitor的执行周期是64s。开启monitor后因为是持续周期性的运行的,在不需要的时候一定要记得drop相关表来停止monitor。如果在开启monitor的中间服务器有重启,monitor不会自动重启,并且在下次启动monitor之前,必须先执行停止操作。
其中innodb_monitor/innodb_lock_monitor两种监视器的输出结果基本类似,后者会有更多关于锁的信息,而前一个实际上就是show innodb status。innodb_table_monitor则会将系统中所有innodb的表的一些结构和内部信息输出,而innodb_tablespace_monitor则输出的是tablespace的信息,注意该monitor输出的只是共享表空间的信息,如果使用innodb_file_per_table为每个表使用独立的表空间,则这些表空间的信息是不会包含在输出中的。
以下是一些简单的示例:
innodb_monitor/innodb_lock_monitor:
=====================================
090805 22:24:48 INNODB MONITOR OUTPUT
=====================================
Per second averages calculated from the last 19 seconds
----------
SEMAPHORES
----------
OS WAIT ARRAY INFO: reservation count 312921, signal count 308229
Mutex spin waits 0, rounds 18209349, OS waits 111906
RW-shared spins 287775, OS waits 142204; RW-excl spins 175036, OS waits 19318
------------
TRANSACTIONS
------------
Trx id counter 0 121675664
Purge done for trx's n:o < 0 121675662 undo n:o < 0 0
History list length 10
LIST OF TRANSACTIONS FOR EACH SESSION:
---TRANSACTION 0 121462143, not started, process no 8452, OS thread id 1160767840
mysql tables in use 1, locked 1
MySQL thread id 8056144, query id 78206864 localhost root
---TRANSACTION 0 137229, not started, process no 8452, OS thread id 1158199648
MySQL thread id 50, query id 377 Has read all relay log; waiting for the slave I/O thread to update it
--------
FILE I/O
--------
I/O thread 0 state: waiting for i/o request (insert buffer thread)
I/O thread 1 state: waiting for i/o request (log thread)
I/O thread 2 state: waiting for i/o request (read thread)
I/O thread 3 state: waiting for i/o request (write thread)
Pending normal aio reads: 0, aio writes: 0,
ibuf aio reads: 0, log i/o's: 0, sync i/o's: 0
Pending flushes (fsync) log: 0; buffer pool: 0
34 OS file reads, 80820900 OS file writes, 1263117 OS fsyncs
0.00 reads/s, 0 avg bytes/read, 1.16 writes/s, 0.63 fsyncs/s
-------------------------------------
INSERT BUFFER AND ADAPTIVE HASH INDEX
-------------------------------------
Ibuf: size 1, free list len 0, seg size 2,
0 inserts, 0 merged recs, 0 merges
Hash table size 8850487, node heap has 233 buffer(s)
0.11 hash searches/s, 0.42 non-hash searches/s
---
LOG
---
Log sequence number 4 3697502095
Log flushed up to   4 3697502095
Last checkpoint at  4 3697502095
0 pending log writes, 0 pending chkp writes
79595438 log i/o's done, 0.47 log i/o's/second
----------------------
BUFFER POOL AND MEMORY
----------------------
Total memory allocated 4851752298; in additional pool allocated 13195520
Dictionary memory allocated 145784
Buffer pool size   262144
Free buffers       193334
Database pages     68577
Modified db pages  0
Pending reads 0
Pending writes: LRU 0, flush list 0, single page 0
Pages read 70, created 120513, written 2829967
0.00 reads/s, 0.21 creates/s, 0.84 writes/s
Buffer pool hit rate 1000 / 1000
--------------
ROW OPERATIONS
--------------
0 queries inside InnoDB, 0 queries in queue
1 read views open inside InnoDB
Main thread process no. 8452, id 1157658976, state: waiting for server activity
Number of rows inserted 12233742, updated 57497659, deleted 1, read 69720050
0.05 inserts/s, 0.05 updates/s, 0.00 deletes/s, 0.05 reads/s
----------------------------
END OF INNODB MONITOR OUTPUT
============================
innodb_table_monitor:
===========================================
090805 22:26:56 INNODB TABLE MONITOR OUTPUT
===========================================
--------------------------------------
TABLE: name SYS_FOREIGN, id 0 11, columns 7, indexes 3, appr.rows 0
COLUMNS: ID: DATA_VARCHAR prtype 1835012 len 0; FOR_NAME: DATA_VARCHAR prtype 1835012 len 0;
REF_NAME: DATA_VARCHAR prtype 1835012 len 0; N_COLS: DATA_INT len 4;
DB_ROW_ID: DATA_SYS prtype 256 len 6; DB_TRX_ID: DATA_SYS prtype 257 len 6; DB_ROLL_PTR:
DATA_SYS prtype 258 len 7;   INDEX: name ID_IND, id 0 11, fields 1/6, uniq 1, type 3
root page 46, appr.key vals 0, leaf pages 1, size pages 1
FIELDS:  ID DB_TRX_ID DB_ROLL_PTR FOR_NAME REF_NAME N_COLS
INDEX: name FOR_IND, id 0 12, fields 1/2, uniq 2, type 0
root page 47, appr.key vals 0, leaf pages 1, size pages 1
FIELDS:  FOR_NAME ID
INDEX: name REF_IND, id 0 13, fields 1/2, uniq 2, type 0
root page 48, appr.key vals 0, leaf pages 1, size pages 1
FIELDS:  REF_NAME ID
...省略若干输出
--------------------------------------
TABLE: name test/test, id 0 81, columns 4, indexes 1, appr.rows 3
COLUMNS: i: DATA_INT DATA_BINARY_TYPE len 4; DB_ROW_ID: DATA_SYS prtype 256 len 6;
DB_TRX_ID: DATA_SYS prtype 257 len 6; DB_ROLL_PTR: DATA_SYS prtype 258 len 7;
INDEX: name GEN_CLUST_INDEX, id 0 23, fields 0/4, uniq 1, type 1
root page 3, appr.key vals 3, leaf pages 1, size pages 1
FIELDS:  DB_ROW_ID DB_TRX_ID DB_ROLL_PTR i
-----------------------------------
END OF INNODB TABLE MONITOR OUTPUT
==================================
innodb_tablespace_monitor:
================================================
090805 22:28:16 INNODB TABLESPACE MONITOR OUTPUT
================================================
FILE SPACE INFO: id 0
size 65536, free limit 6208, free extents 89
not full frag extents 6: used pages 69, full frag extents 0
first seg id not used 0 1067667
SEGMENT id 0 1067666 space 0; page 903; res 1 used 1; full ext 0
fragm pages 1; free extents 0; not full extents 0: pages 0
...省略若干输出
SEGMENT id 0 144216 space 0; page 1307; res 1 used 1; full ext 0
fragm pages 1; free extents 0; not full extents 0: pages 0
NUMBER of file segments: 37
Validating tablespace
Validation ok
---------------------------------------
END OF INNODB TABLESPACE MONITOR OUTPUT
=======================================
posted @ 2011-04-26 09:53 哈哈的日子 阅读(297) | 评论 (0)编辑 收藏

转自MySQL 中文网:http://imysql.cn/2008_05_22_walk_through_show_innodb_status
感谢两个作者,呵呵

原文作者: Peter Zaitsev
原文来源: http://www.mysqlperformanceblog.com/2006/07/17/show-innodb-status-walk-through/
译者:叶金荣(Email:),转载请注明译者和出处,并且不能用于商业用途,违者必究。

 

很多人让我来阐述一下 SHOW INNODB STATUS 的输出信息, 了解 SHOW INNODB STATUS 都输出了些什么信息,并且我们能从这些信息中获取什么资讯,得以提高 MySQL 性能。

首先,让我们来了解一下 SHOW INNODB STATUS 输出的基础,它打印了很多关于 InnoDB 内部性能相关的计数器、统计、事务处理信息等。在 MySQL 5 中,InnoDB 的性能统计结果也在 SHOW STATUS 结果中显示了。大部分和 SHOW INNODB STATUS 的其他信息相同,在旧版本中还没有这个功能。

SHOW INNODB STATUS 中的很多统计值都是每秒更新一次的,如果你打算利用这些统计值的话,那么最好统计一段时间内的结果。InnoDB 首先输出以下信息:

1.=====================================
2.060717  3:07:56 INNODB MONITOR OUTPUT
3.=====================================
4.Per second averages calculated from the last 44 seconds

首先要确认这是至少统计了 20-30 秒的样本数据。如果平均统计间隔是0或1秒,那么结果就没什么意义了。
说实在的我不喜欢InnoDB提供的平均值,因为很难取得合理的平均间隔统计值,如果你是写脚本来取得 SHOW INNODB STATUS 结果的话,那么最好取得全局的统计结果,然后取得平均值。当然了,直接查看输出的结果信息也是很有用的。

下一部分显示了信号(Semaphores)相关信息:

1.----------
2.SEMAPHORES
3.----------
4.OS WAIT ARRAY INFO: reservation count 13569, signal count 11421
5.--Thread 1152170336 has waited at ./../include/buf0buf.ic line 630 for 0.00 seconds the semaphore:
6.Mutex at 0x2a957858b8 created file buf0buf.c line 517, lock var 0
7.waiters flag 0
8.wait is ending
9.--Thread 1147709792 has waited at ./../include/buf0buf.ic line 630 for 0.00 seconds the semaphore:
10.Mutex at 0x2a957858b8 created file buf0buf.c line 517, lock var 0
11.waiters flag 0
12.wait is ending
13.Mutex spin waits 5672442, rounds 3899888, OS waits 4719
14.RW-shared spins 5920, OS waits 2918; RW-excl spins 3463, OS waits 3163

这段可以分成2个部分。一部分是当前的等待,这部分只是包含了在高并发环境下的全部记录,因此 InnoDB 会频繁回退到系统等待。如果等待是通过自旋锁来解决的话,那么这些信息就就不会显示了。

通过这部分信息,你就会知道系统负载的热点在哪了。不过这需要了解一下源码相关的知识 - 从上面的信息中就可以看出来是哪个源码文件中的哪行(不同的版本结果可能不同),只是从这里却看不出来任何信息。尽管如此,还是可以从文件名中猜到一些东西 - 比如本例中,文件名 "buf0buf.ic" 预示着和一些缓冲池争夺有关系。如果想了解更多,就去看源码吧。

还有一些关于等待的更多细节。"lock var" 表示当前的 mutex 对象的值(被锁住 = 1 / 释放 = 0) 值,"waiters flag" 表示当前的等待个数。另外,本例中还可以看到等待状态信息 "wait is ending",这表示 mutex 已经释放,但是系统调度线程还正在处理。

第二块是事件统计 - "reservation count" 和 "signal count" 显示了 innodb 使用内部同步阵列的活跃程度 - 时间片(slot)分配以及线程信号使用同步阵列的频繁程度。这些统计信息可以用于表示 innodb 回退到系统等待的频率。还有关于系统等待的直接相关信息,可以看到"OS Waits"的互斥信号灯(mutexes),以及读写锁。这些信息中显示了互斥锁和共享锁。系统等待和 "保留(reservation)" 不完全一样,在回退到用 sync_array 的复杂等待模式前,innodb 会尝试 "输出(yield)" 到系统,希望下一次调度时间对象里命名线程已经释放了。系统等待相对较慢,如果每秒发生了上万次系统等待,则可能会有问题。另一个观察方法是查看系统状态中的上下文(context)交换频率。

另一块重要的信息是 "spin waits" 和 "spin rounds" 的数量。相较于系统等待,自旋锁是低成本的等待;不过它是一个活跃的等待,会浪费一些cpu资源。因此如果看到大量的自旋等待和自旋轮转,则很显然它浪费了很多cpu资源。浪费cpu时间和无谓的上下文切换之间可以用 innodb_sync_spin_loops 来平衡。

接下来的这段显示死锁状况:

1.------------------------
2.LATEST DETECTED DEADLOCK
3.------------------------
4.060717  4:16:48
5.*** (1) TRANSACTION:
6.TRANSACTION 0 42313619, ACTIVE 49 sec, process no 10099, OS thread id 3771312 starting index read
7.mysql tables in use 1, locked 1
8.LOCK WAIT 3 lock struct(s), heap size 320
9.MySQL thread id 30898, query id 100626 localhost root Updating
10.update iz set pad='a' where i=2
11.*** (1) WAITING FOR THIS LOCK TO BE GRANTED:
12.RECORD LOCKS space id 0 page no 16403 n bits 72 index `PRIMARY` of table `test/iz` trx id 0 42313619 lock_mode X locks rec but not gap waiting
13.Record lock, heap no 5 PHYSICAL RECORD: n_fields 4; compact format; info bits 0
14. 0: len 4; hex 80000002; asc     ;; 1: len 6; hex 00000285a78f; asc       ;; 2: len 7; hex 00000040150110; asc    @   ;; 3: len 10; hex 61202020202020202020; asc a         ;;
15.
16.*** (2) TRANSACTION:
17.TRANSACTION 0 42313620, ACTIVE 24 sec, process no 10099, OS thread id 4078512 starting index read, thread declared inside InnoDB 500
18.mysql tables in use 1, locked 1
19.3 lock struct(s), heap size 320
20.MySQL thread id 30899, query id 100627 localhost root Updating
21.update iz set pad='a' where i=1
22.*** (2) HOLDS THE LOCK(S):
23.RECORD LOCKS space id 0 page no 16403 n bits 72 index `PRIMARY` of table `test/iz` trx id 0 42313620 lock_mode X locks rec but not gap
24.Record lock, heap no 5 PHYSICAL RECORD: n_fields 4; compact format; info bits 0
25. 0: len 4; hex 80000002; asc     ;; 1: len 6; hex 00000285a78f; asc       ;; 2: len 7; hex 00000040150110; asc    @   ;; 3: len 10; hex 61202020202020202020; asc a         ;;
26.
27.*** (2) WAITING FOR THIS LOCK TO BE GRANTED:
28.RECORD LOCKS space id 0 page no 16403 n bits 72 index `PRIMARY` of table `test/iz` trx id 0 42313620 lock_mode X locks rec but not gap waiting
29.Record lock, heap no 4 PHYSICAL RECORD: n_fields 4; compact format; info bits 0
30. 0: len 4; hex 80000001; asc     ;; 1: len 6; hex 00000285a78e; asc       ;; 2: len 7; hex 000000003411d9; asc     4  ;; 3: len 10; hex 61202020202020202020; asc a         ;;
31.
32.*** WE ROLL BACK TRANSACTION (2)

这里显示了 Innodb 最后检测到事务引发的死锁,包括发生死锁时的状态,加了什么锁,在等待什么锁释放,以及 Innodb 决定哪个事务会被回滚。注意,innodb只显示了事务持有锁的相关简单信息。并且只显示了每个事务最后执行的语句,发生死锁的记录就是由于这些语句引起的。查看复杂的死锁信息还需要查看日志文件,才能找到真正引发冲突的语句。大部分情况下,SHOW INNODB STATUS 显示的信息基本足够了。

下面是关于外键约束引发的死锁信息:

1.------------------------
2.LATEST FOREIGN KEY ERROR
3.------------------------
4.060717  4:29:00 Transaction:
5.TRANSACTION 0 336342767, ACTIVE 0 sec, process no 3946, OS thread id 1151088992 inserting, thread declared inside InnoDB 500
6.mysql tables in use 1, locked 1
7.3 lock struct(s), heap size 368, undo log entries 1
8.MySQL thread id 9697561, query id 188161264 localhost root update
9.insert into child values(2,2)
10.Foreign key constraint fails for table `test/child`:
11.,
12.  CONSTRAINT `child_ibfk_1` FOREIGN KEY (`parent_id`) REFERENCES `parent` (`id`) ON DELETE CASCADE
13.Trying to add in child table, in index `par_ind` tuple:
14.DATA TUPLE: 2 fields;
15. 0: len 4; hex 80000002; asc     ;; 1: len 6; hex 000000000401; asc       ;;
16.
17.But in parent table `test/parent`, in index `PRIMARY`,
18.the closest match we can find is record:
19.PHYSICAL RECORD: n_fields 3; 1-byte offs TRUE; info bits 0
20. 0: len 4; hex 80000001; asc     ;; 1: len 6; hex 0000140c2d8f; asc     - ;; 2: len 7; hex 80009c40050084; asc    @   ;;

Innodb会显示引发错误的语句。外键约束定义失败,以及定义关系最密切的父表。有很多嵌接信息都是用16进制表示,不过对于问题诊断并不是太重要,它们主要用于给 Innodb 的开发者来查看或者用于调试目的。

接下来是显示 Innodb 当前活跃的事务:

1.------------
2.TRANSACTIONS
3.------------
4.Trx id counter 0 80157601
5.Purge done for trx's n:o <0 80154573 undo n:o <0 0
6.History list length 6
7.Total number of lock structs in row lock hash table 0
8.LIST OF TRANSACTIONS FOR EACH SESSION:
9.---TRANSACTION 0 0, not started, process no 3396, OS thread id 1152440672
10.MySQL thread id 8080, query id 728900 localhost root
11.show innodb status
12.---TRANSACTION 0 80157600, ACTIVE 4 sec, process no 3396, OS thread id 1148250464, thread declared inside InnoDB 442
13.mysql tables in use 1, locked 0
14.MySQL thread id 8079, query id 728899 localhost root Sending data
15.select sql_calc_found_rows  * from b limit 5
16.Trx read view will not see trx with id>= 0 80157601, sees <0 80157597
17.---TRANSACTION 0 80157599, ACTIVE 5 sec, process no 3396, OS thread id 1150142816 fetching rows, thread declared inside InnoDB 166
18.mysql tables in use 1, locked 0
19.MySQL thread id 8078, query id 728898 localhost root Sending data
20.select sql_calc_found_rows  * from b limit 5
21.Trx read view will not see trx with id>= 0 80157600, sees <0 80157596
22.---TRANSACTION 0 80157598, ACTIVE 7 sec, process no 3396, OS thread id 1147980128 fetching rows, thread declared inside InnoDB 114
23.mysql tables in use 1, locked 0
24.MySQL thread id 8077, query id 728897 localhost root Sending data
25.select sql_calc_found_rows  * from b limit 5
26.Trx read view will not see trx with id>= 0 80157599, sees <0 80157595
27.---TRANSACTION 0 80157597, ACTIVE 7 sec, process no 3396, OS thread id 1152305504 fetching rows, thread declared inside InnoDB 400
28.mysql tables in use 1, locked 0
29.MySQL thread id 8076, query id 728896 localhost root Sending data
30.select sql_calc_found_rows  * from b limit 5
31.Trx read view will not see trx with id>= 0 80157598, sees <0 80157594

如果当前连接不是很多,则会显示全部事务列表;如果有大量连接,则 Innodb 只会显示他们的数量,减少输出的列表信息,使得输出结果不会太多。

事务ID是当前事务的标识,事务的id每次都会增加。Purge done for trx's n:o 是指净化(purge)线程已经完成的事务数。Innodb仅清除那些被当前事务认为不再需要的旧版本数据。那些未提交的旧事务可能会阻塞净化线程并且消耗资源。通过查看2次清除事务数之差,就可以知道是否发生了这种情况。少数情况下,净化线程可能难以跟上更新的速度,2次查看值之差可能会越来越大;那么,innodb_max_purge_lag 就派得上用场了。 "undo n:o" 显示了净化线程当前正在处理的回滚日志号,如果当前不处于活跃状态,则它的值是 0。

History list length 6 是指在回滚空间中的未清除事务数。随着事务的提交,它的值会增加;随着清除线程的运行,它的值会减小。

Total number of lock structs in row lock hash table 是指事务分配过的行锁结构总数。它和曾经被锁住过的行总数不一定相等,通常是一个锁结构对应多行记录。

MySQL中,每个连接如果没有活动的事务,则它的状态是 not started,如果有活动的事务,则是 ACTIVE。注意,尽管事务是活动的,但是其连接的状态却可能是 "睡眠(sleep)" - 如果是在一个有多条语句的事务里的话。Innodb 会同时显示系统的线程号以及进程号,这有助于利用gdb来调试或者其他类似用途。另外,事务的状态也会根据当前实际状态来显示,例如 "读取记录(fetching rows)",em>"更新(updating)"等等。"Thread declared inside InnoDB 400" 的意思是 Innodb 内核正在运行该线程,并且还需要400个票。Innodb 会根据 innodb_thread_concurrency 的值来限制同时并发的线程数不超过它。如果线程当前不在 Innodb 的内核中运行,则它的状态可能是 "waiting in InnoDB queue" 或 "sleeping before joining InnoDB queue"。后面这个状态有点意思 - Innodb 为了避免有太多的线程同时抢着要进入运行队列,那么就会尝试让这些线程进入等待状态(如果没有足够的空闲插槽(slot)的话)。这就可能会导致 Innodb 内核中当前活跃的线程数可能比innodb_thread_concurrency 的值还小。某种负载环境下,这可能有助于减小线程进入队列的时间。可以通过调整 innodb_thread_sleep_delay 来实现,它的单位是微妙。

mysql tables in use 1, locked 0 是指事务中已经用过的数据表个数(已经访问过了的),以及被锁的个数。Innodb 一般情况不会锁表,因此锁表数一般是0,除非是ALTER TABLE 或者其他类似 LOCK TABLES 的语句。

除了Innodb相关的特定信息外,一些基本信息可以通过 来查看,例如正在执行什么语句,查询ID号,查询状态等。

下面这部分显示的是跟IO相关的具体信息:

1.--------
2.FILE I/O
3.--------
4.I/O thread 0 state: waiting for i/o request (insert buffer thread)
5.I/O thread 1 state: waiting for i/o request (log thread)
6.I/O thread 2 state: waiting for i/o request (read thread)
7.I/O thread 3 state: waiting for i/o request (write thread)
8.Pending normal aio reads: 0, aio writes: 0,
9. ibuf aio reads: 0, log i/o's: 0, sync i/o's: 0
10.Pending flushes (fsync) log: 0; buffer pool: 0
11.17909940 OS file reads, 22088963 OS file writes, 1743764 OS fsyncs
12.0.20 reads/s, 16384 avg bytes/read, 5.00 writes/s, 0.80 fsyncs/s

本部分显示了IO助手线程状态 - 插入缓冲线程,日志线程,读、写线程。它们分别对应插入缓冲合并,异步日志刷新,预读以及刷新脏数据。源自查询的正常读取是由正在运行的查询执行的。在Unix/Linux平台下,总能看见4个线程,在Windows上可以通过 innodb_file_io_threads 来调整。每个线程准备好之后都能看到其状态:waiting for i/o request 或者正在执行特定的操作。

每个线程都会显示正在进行的操作数量 - 同时正要执行或者正在执行的操作数量。另外,正在执行的 fsync 操作数量也会显示出来。有写数据时,Innodb需要确保数据最终被写到磁盘上,只是把它们放在系统缓存里是不够的。通常是调用 fsync() 来完成的。如果它的值一直很高,那意味这Innodb可能是处于IO负载较高状态。注意,由线程执行请求引发的IO请求是不计算在内的,因此尽管系统的IO负载较高,但是它们的值却可能为 0。

接下来显示的是IO操作的平均统计值,它们对于图形显示或者监控很有用。
"16384 avg bytes/read" 是读请求的平均值。随机IO的话,每个页的大小是16K,全表扫描或索引扫描时的预读会导致这个值明显的增加。因此,它体现了预读的效率。

1.-------------------------------------
2.INSERT BUFFER AND ADAPTIVE HASH INDEX
3.-------------------------------------
4.Ibuf for space 0: size 1, free list len 887, seg size 889, is not empty
5.Ibuf for space 0: size 1, free list len 887, seg size 889,
6.2431891 inserts, 2672643 merged recs, 1059730 merges
7.Hash table size 8850487, used cells 2381348, node heap has 4091 buffer(s)
8.2208.17 hash searches/s, 175.05 non-hash searches/s

本部分显示了插入缓冲以及自适应哈希索引的状态。第一行显示了插入缓冲的状态 - 段的大小以及空闲列表,以及缓冲中有多少记录。接下来显示了缓冲中已经完成了多少次插入,有多少记录已经合并,有多少次合并已经完成。合并次数除以插入次数得到的比率可以反映出插入缓冲的效率如何。

Innodb采用哈希索引建立内存页索引形成自适应哈希索引而不是采 B-tree 索引,得以加速行记录到内存页的检索。这里显示了哈希表的大小,以及自适应哈希索引使用了多少单元和缓冲。可以通过计算利用哈希索引检索的次数以及没利用它检索的次数来了解哈希索引的效率。

当前对自适应哈希索引基本没有什么办法可以调整它,主要还是用于查看。

1.---
2.LOG
3.---
4.Log sequence number 84 3000620880
5.Log flushed up to   84 3000611265
6.Last checkpoint at  84 2939889199
7.0 pending log writes, 0 pending chkp writes
8.14073669 log i/o's done, 10.90 log i/o's/second

接下来显示的是Innodb的日志子系统相关信息。可以看到当前的日志序列号 - 相当于Innodb自从表空间开始创建直到现在已经写入日志文件的总字节数。还可以看到日志已经刷新到哪个点,同样也可以根据最后检查点计算出还有多少日志没有刷新到文件中去。Innodb采用模糊检查点,因此这行显示的是已经从缓冲池中刷新到文件的日志序列号。由于更高的日志序列号可能不会被立刻刷新到日志文件中去,因此日志序列号不能被覆盖掉。通过监控刷新到哪个日志的日志序列,可以判定innodb_log_buffer_size 的设置是否合理,如果看到超过 30% 的日志还没有刷新到日志文件中,则需要考虑增加它的值了。

另外,还能看到日志写入以及检查点的数目。根据日志 I/O 操作的数目可以区分开表空间相关的IO请求和日志IO请求数量,进而可以确定到底需要几个日志文件。注意,innodb_flush_log_at_trx_commit 的值可以影响到日志写操作的代价高或低。如果 innodb_flush_logs_at_trx_commit=2,则日志是写到系统缓存,然后再顺序写到日志文件中,因此相对会快很多。

1.----------------------
2.BUFFER POOL AND MEMORY
3.----------------------
4.Total memory allocated 4648979546; in additional pool allocated 16773888
5.Buffer pool size   262144
6.Free buffers       0
7.Database pages     258053
8.Modified db pages  37491
9.Pending reads 0
10.Pending writes: LRU 0, flush list 0, single page 0
11.Pages read 57973114, created 251137, written 10761167
12.9.79 reads/s, 0.31 creates/s, 6.00 writes/s
13.Buffer pool hit rate 999 / 1000

这部分显示了缓冲池和内存的利用率相关信息。可以看到Innodb分配的所有内存(有些时候可能比你设置的还要多点),以及额外的内存池分配情况(可以检查它的大小是否正好),缓冲池总共有多少个内存页,有多少空闲内存页,数据库分配了多少个内存页以及有多少个脏内存页。从这些信息中,就可以判断内存缓冲池是否设定合理,如果总是有大量空闲内存页,则不需要设置那么多内存,可以适当减小一点。如果空闲内存页为 0,这种情况下数据库内存页就不一定会和缓冲池的总数一致,因为缓冲池还需要保存锁信息,自适应哈希索引以及其他系统结构等信息。

等待中的读写是指内存缓冲池级别的请求。Innodb可能会把多个文件级别的请求合并到一个上,因此各不相同。我们还可以看到Innodb提交的各种不同类型的IO,LRU内存页中需要刷新的页 - 脏内存页,它们不会被长时间存取;刷新列表 -
检查点进程处理完之后需要刷新的旧内存页;独立内存页 - 独立的写内存页。

我们还可以看到内存页总共读写了多少次。已经创建的内存页是当前一个内存页中的内容没有读取到内存缓冲池中时,专门为新数据创建的空内存页。

最后我们可以看到缓冲池的命中率,它预示着缓冲池的效率。1000/1000 相当于 100% 的命中率。不过这样也很难说明缓冲池的命中率就足够高了,这要需要根据不同的负载环境而定。通常情况下,950/1000 就够了,有些时候在IO负载较高的环境下,命中率可能为 995/1000。

1.--------------
2.ROW OPERATIONS
3.--------------
4.0 queries inside InnoDB, 0 queries in queue
5.1 read views open inside InnoDB
6.Main thread process no. 10099, id 88021936, state: waiting for server activity
7.Number of rows inserted 143, updated 3000041, deleted 0, read 24865563
8.0.00 inserts/s, 0.00 updates/s, 0.00 deletes/s, 0.00 reads/s

最后一部分,显示了数据行操作以及一些系统信息相关情况。

一开始显示了Innodb线程队列状态 - 有多少线程处于等待或活跃的。Innodb内部打开了多少读视图 -
这是在事务开始后,但是当前还没有活跃语句的情况,Innodb主线程的状态控制了系统操作调度的数量 - 刷新脏内存页、检查点、净化线程、刷新日志、合并插入缓冲等。 "state" 的值则表示了主线程当前的状态。

接下来可以看到自从系统启动以来,所有的数据行操作数量及其平均值。它们可以很方便地用于监控以及画出系统状态图,数据行操作次数可以很好的衡量Innodb的负载。不是所有的数据行操作带来的负载都是一样的,存取10字节的行比10Mb的行相比会小了很多,不过相对于查询的总次数来说这个信息可是有用的多了,差别也很大。

还有一点需要注意的是,SHOW INNODB STATUS 不是一成不变的,有些时间点上可能会不相符。SHOW INNODB STATUS结果中,不同时间可能会显示不同结果,因此有些时候可能会看到冲突的信息。这是由于设计时需要由全局锁提供一致性信息,导致了大量的开销。

posted @ 2011-04-26 09:51 哈哈的日子 阅读(536) | 评论 (0)编辑 收藏
很长一段时间使用 mac os x 目前是 snow leopard,最让我恼火的就是他的快捷键。
我是大部分操作靠键盘的人,但切换到 mac 后,曾经和同事说,基本上是“武功全废”。

直到今天,给老婆买了新 mbp 后,才发现,原来。。。。是我土了!!!
原来,在设置->键盘->键盘快捷键,里面,有一项叫“全键盘控制”,可以切换,快捷键是 control + F7。

生活,原来可以更美一点儿的,真的!
posted @ 2011-04-21 22:45 哈哈的日子 阅读(162) | 评论 (0)编辑 收藏
我的 m2eclipse 下载 source 功能老是不好用,只好用命令行了。

mvn eclipse:eclipse -DdownloadSources=true
or
mvn eclipse:eclipse -DdownloadJavadocs=true
posted @ 2011-04-16 17:23 哈哈的日子 阅读(624) | 评论 (0)编辑 收藏
sudo lsof -i -P | grep 2144 | awk '$2 != 2144 {print $2}' | xargs ps -fp | awk 'NR > 1 {print $3}' | xargs kill -15
posted @ 2011-03-13 17:45 哈哈的日子 阅读(332) | 评论 (0)编辑 收藏
目标:
copy 国际化资源文件,*.properties 至 *_en_US.properties,但有一些不是国际化资源的配置文件被误 copy 了,国际化资源的判断标准是同时还有一个 *_zh_CN.properties 文件


                                
<target>
                                    
<pathconvert property="x" pathsep="," targetos="unix">
                                        
<path>
                                            
<fileset dir="src/main/resources" includes="**/*_zh_CN.properties" />
                                        
</path>
                                        
<mapper type="regexp" from=".*?src/main/resources/(.*?)_zh_CN.properties$" to="\1.properties" />
                                    
</pathconvert>
                                    
<copy todir="${project.build.outputDirectory}">
                                        
<fileset dir="src/main/resources" includes="${x}" />
                                        
<mapper type="regexp" from="^(.*?).properties$" to="\1_en_US.properties" />
                                    
</copy>
                                
</target>
posted @ 2011-03-10 19:31 哈哈的日子 阅读(264) | 评论 (0)编辑 收藏
现象:
eclipse subversive plugin 快捷键无效
原因:
据说是 eclipse 高版本的 api 和 subversive 不太匹配,不确定。
解决:
Window -> Customize Perspective -> Command Groups Availability -> 左侧 Available command groups -> 选择 SVN

posted @ 2011-03-09 10:53 哈哈的日子 阅读(1265) | 评论 (0)编辑 收藏
有一位居士,在江边散步,看到一个船夫将沙滩上的渡舟推向江里,准备载客渡江。此时刚好有一位禅师路过,这个居士于是向前作礼请示道:“请问禅师,刚才船夫将舟推入江时,将江滩上的螃蟹、虾、螺等压死不少,请问这是乘客的罪过?还是船夫的罪过?” 禅师没有考虑,就回答道:“既不是乘客的罪过,也不是船夫的罪过!” 居士非常不解,怀疑地问道:“两者都没有罪过,那么是谁的罪过?” 禅师两眼圆睁,大声道:“是你的罪过!”
posted @ 2011-02-20 22:39 哈哈的日子 阅读(126) | 评论 (0)编辑 收藏
@import url(http://www.blogjava.net/CuteSoft_Client/CuteEditor/Load.ashx?type=style&file=SyntaxHighlighter.css);@import url(/css/cuteeditor.css); 步骤如下:
xxx 是当前用户名
1. 下载一个 unzip 的 mysql 的 tar 包。
2. 把这个 tar 解压到 /usr/local/mysql 目录下,
3. 到 /usr/loca/mysql 目录下,执行 chown -R xxx ,增加权限。
4. 然后执行 /usr/local/mysql/scripts/mysql_install_db --user=xxx
5. 然后 /usr/local/mysql/bin/mysqld --console 就启动了

如果要开机启动,就 sudo vi /etc/rc.local,在里面加上 /usr/local/mysql/bin/mysqld 就行了。

posted @ 2011-02-19 09:47 哈哈的日子 阅读(163) | 评论 (0)编辑 收藏
http://coolshell.cn/articles/3609.html

StackExchange.com上有一个贴子在评论着最近20年来被炒作过度的技术,对于出现的结果,大多数赞同,也有一些不赞同。下面我从前15名挑了10个(Java的WORE我去掉了,TDD我也去掉了,因为我觉得他们应该没有炒作过度,而且都不错),按原贴的顺序罗列如下:(后面的一些评论是我加的,欢迎大家讨论)

Top 10 过度炒作的技术和概念

  • Unified Modeling Language (UML) – UML是一个程序员交流想法的不错的工具,但是他离程序员真正需要的设计工具还差得很远,比如:设计是否符合需求、架构设计、数据流等等。只有为数不多的程序员使用这个工具交流想法,而没有用在具体工作中。
  • Sharepoint - 现在N多的公司都在用微软的这个东西做公司内部的Intranet。不过安装和维护起来,代价相当的大。但是其市场做的很成功,不对技术上来说对技术人员来说,相当的蹩脚。Sharepoint的设计没有认真地分析过业务流程,仅仅是一个文档存储地。看上去我们似乎可以做任何的事,但是如果你要用其来管理你的项目和track你的项目问题,你会发现其是无比的难用。
  • eXtensible Mark-up Language (XML) –  XML嘛,以前说过很多了(XML1 XML2)我们用他来做和程序数据封装,用来做配置文件,用来做网络传输格式。我们的程序处理起XML来,又慢,又不经济,没有工具,几乎无法维护XML文件。XML用来做数据封包真是很不经济,Yaml和JSON那个不比它简单?用XML来做程序配置文件不知道是谁想出来的主意,相当的愚蠢,看看Unix/Linux下的配置文件,简单易读,相当容易维护。真是高科技啊。
  • SOAP, XML-RPC, WSDL 的 Web Services – 这个东西前几年炒的很凶。所有人都相信,这是程序员的未来。可惜的,其中的复杂和不一致,相当的令人恶心。SOAP的那个S居然还是Simple!看来,扯上XML的都不会是什么好的东东。不过,个人认为,CORBA比他更恶。

  • CORBA - 作为一个比其更恶的更过度炒作的COM技术的Linux/Unix下的补充技术,这个技术也好不到哪里去。相当的复杂,从理论上开始就是这样了。这是一个没有经过实践就搞出来的一个东西。然后开始炒作。
  • Cloud Computing – 这是一个靠炒作出现的东西。这个东西也就是说,我们可以使用不同的调备,比如电脑,平板电脑,手机,移动设备随时随地做想做的事。Google的Chrome笔记本的广告展示了这项技术,但是,把工作结果放在云端的人会有多少呢。更多的人更喜欢的是去使用那些自己可以控制的电脑或平台。Google在这点上做的明显不如Amazon,像Amazon EC2平台,你可以在世界上任何一个角落随时随地的去启动你那台远程的系统。(更新(2011/1/29)解释一下,关于云计算,在写下这篇文章的时候我本来有点拿不定主意的,后来回顾了一下历史,如COM啊,ActiveX啊,EJB啊,当时感觉都是很强的东西,但是最终也只是被炒作的。云计算,我不知道未来怎么样,从今天来看,这项技术在今天存在炒作的情况——中移动云,阿里云,到处都是云,在云面前,神马都是浮云了。
  • SOA – Service Oriented Architecture – 这是一个没有人真正知道是什么玩意的概念。炒作了很多年,很多人都试图去了解它,但最后的结果是打个哈欠,看别的东西去了。现在没有人提了。中国一些银行在IBM的鼓动下搞了很多所谓的SOA应用,结果是系统很复杂,当然,也再离不开IBM了。
  • Software Industrial Process – 软件开发中有很多所谓的工业界的流程,用这些流程好像可以控制质量。外包公司和中国的本土公司很喜欢这些东西,比如ISO和CMMi,这些流程不能说不好,也有好的地方,尤其是对那些不会思考只要跟从的Worker来说。这些工业界流程中炒作过度的是,那些所谓的使用这些流程可以预测项目周期,质量控制,以前需求开发和管理等东西。其让流程上升到了一种神学的可预言的地步,同样也上升到了政治的地步。因为,这些流程中都必然会有SQA 的Audit的流程,还有统计和报告的流程,这些统统不是软件开发的流程,但是的确是相当的政治。使用这些工业届标准流程的公司,通常都是一些创造性有问题的公司。
  • Agile Software Development – 敏捷开发。首先,我承认其中的很多实践相当有效,在理论上也不错,还有很多不错方法的。不过,还是有炒作的成分(下面的言论,我等着被骂)对我来说,在中国,“敏捷开发”的炒作简直就像是一个电视购物,ThoughtWorks中国各种咨询师们软件开发经验其实并不丰富,准确来说,他们有的是咨询经验,而没有具体项目实施经验(有的咨询师甚至都没有写过一行代码就去学教人怎么编程和开发软件了),和他们沟通起来能够感到他们对敏捷很亢奋,而且是唯敏捷主义,就差打出Once Process,One Agile的口号了,他们信仰敏捷流程的已经接近宗教信仰,他们的精神世界很朝鲜。因为,无论你和他们的咨询师谈什么,他们只说敏捷,从来不会分析一下,项目的特性是什么?开发这个项目的人的风格是什么?客户的特性是什么?有没有关心软件的stakeholder们(如:程序员,测试人员,客户,管理人员)是怎么想的?而XP和SCRUM也就成了Push工程师最强大的工具。流程这个东西,应该是项目组自发出来的东西,而不是被 灌输,被教条使用的东西。不同的团队、不同的项目、不同的人,不同的风格就是不同的流程,只有去使用适合自己的流程才是最好的流程打个比方,足球队中,巴西队玩的是个人艺术足球,德国队玩的是整体和纪律性足球,意大利玩的是防守型足球,但是他们都有夺世界杯冠军的实力,如果你硬要让巴西队去整德国队或是意大利队的风格,那就悲剧了。很显然,ThoughtWorks很像把全中国的软件公司都整成Agile的,这注定了其在中国是杯具的,也只能争取到那些不知所措的公司和项目,没有合适的项目,也只有靠各种炒作(比如整一些大会,搞一些宣传)。他们总是觉得中国的用户和程序员需要去用时间不停地教育,但是,他们从来没有想想自己的原因 — 靠教育和灌输是永远赢不了的。我给他们的个人建议是,不要以为世界就像你所想像的那样,学会尊重程序员和项目还有很多非技术的东西,多听听程序员和客户怎么说,多分析一下项目的特质,从实际情况出发,而不是自己涛涛不绝地向大家灌输自己的理论
  • Object-Oriented Programming (OOP) – 不多说了,以前本站说过了,所有的一切都在面向对象是个骗局一文中。不过有一点我想告诉大家,面向对象的Design Pattern真是被滥用了,Design Pattern教你的是两件事,1)怎么去化繁为简,2)怎么能让对象的耦合性降低。而不是一个公式让你的套,但,更多的程序员则学会了“流行的设计模式编程”。

附:我不认为过度炒作的技术

Write Once Run Anywhere - 这个有点让我不解,不知道为什么会那么靠前。这是Java的口号,我觉得Java在跨平台方面还是成功的,没有过度炒作啊。用虚拟机的确是做到了这一点,对于那些需要有不同的硬件和操作系统平台并不断升级和更换它们的公司来说,这的确是个很不错的解决平台依赖性的方案。我个感觉这个技术并没有炒作过头,至少在Java这边是这样的。与其说这个,还不如说EJB,这才是炒作过度的技术。

Test Driven Design (TDD) – 从测试案例开始写程序这可能是很多程序员都不习惯的方法。其实这是一种比较好的编程方法,保证了代码怎么改动都不会break其它没有改动的代码,代码可以在一种持续集成中保证质量。但是,我们需要知道TDD的一些副作用(在十条不错的编程观点里也提到过TDD的弊端):1)TDD可能会让程序员敷衍了事,以为test case 没有错就正确了。2)TDD可能会让你忽略了软件设计和架构以及程序的扩展性和重用性。TDD只是一种方法,并不是程序的核心。当然,TDD近几年的炒作也有点过头,已经出现了“TDD是一种Design方法”等“神乎其技”的论调,我对此表示质疑中。

posted @ 2011-02-09 14:32 哈哈的日子 阅读(173) | 评论 (0)编辑 收藏
1. 查看 1521 端口上的应用程序
windows: netstat -anp, linux: sudo netstat -anop | grep 1521, os x: sudo lsof -i -P | grep 1521,注意 P 大写
2. 安装 oracle 需要 /usr/bin/make,最方便的方法是安装 xcode,就有了。
3. 安装 oracle 时使用 jdk 1.4.2,需要做一个 link,sudo ln -s /System/Library/Frameworks/JavaVM.framework/Versions/CurrentJDK /System/Library/Frameworks/JavaVM.framework/Versions/1.4.2,这样 oracle 才可以执行 ./runInstaller -J-d32 安装
4. 安装过程中会报 all_no_orcl ipc_g ihsodbc32 错误,需要修改~/oracle/product/10.2.0/db_1/rdbms/lib/ins_rdbms.mk 文件,把里面 $(HSODBC_LINKLINE) 这行注释掉,即在前面加个 #
5. 安装完成后,需要执行 netca 和 dbca,netca 建立 listener,dbca 建库,但不能直接运行,需要修改 java 文件,$ORACLE_HOME/jdk/bin/java,将...java -Xbootclasspath... 改成 ...java -d32 -Xbootclasspath....,这样才可以运行,然后建立数据库

这样应该总算建好了,太辛苦了。

更完整的参考 http://blog.rayapps.com/2009/09/14/how-to-install-oracle-database-10g-on-mac-os-x-snow-leopard/
这个文档写得太好了,千万不要使用中文版的那个在 snow leopard 下安装 oracle 10g 的文档,中间省略了好多东西,让我走了不少的弯路,呵呵。
posted @ 2011-01-29 22:00 哈哈的日子 阅读(234) | 评论 (0)编辑 收藏
一、用户级别的
在用户目录下建 .bash_profile 文件,即可,每次 login 执行,一般放一些 path,alias,环境变量什么的

二、系统级别的
在 /etc 目录下建 rc.local 文件,里面加一些启动要执行的程序。比如 nexus、jira、confluence 这些。

posted @ 2011-01-24 15:29 哈哈的日子 阅读(146) | 评论 (0)编辑 收藏
弄了两天 Google Calendar 和 GAE,打算做个功能,就是在 GAE 上做个应用,每天在 Google Calendar 里面增加一个 Event,里面记录着今天要背的单词。 
Google 就会到时候短信提醒我,要背的单词了。
这个功能就是个试验的,没有实际作用,肯定不如背单词软件来得实在,好就好在不用装什么软件。

这个功能涉及到了一些功能点:
1. 调用 Google Calendar API,增加 Event 及提醒--这个简单
2. 使用 AuthSub 认证,提醒用户信任我的应用,使应用能够帮助用户订阅背单词的 Calendar--这个参考文档http://code.google.com/intl/zh-CN/apis/calendar/data/2.0/developers_guide_java.html#AuthAuthSub,就可以了
3. 增加 Event 时,有 TimeZone 问题,需要处理。

第三个问题之前没有遇到,现象是
在我本地运行 GAE 的时候,一切正常,可以加一个 10:00-11:00 的提醒到 Calendar 中,但部署至 GAE 服务器上的后,加的提醒就是 18:00-19:00 了,调整了一下 new DateTime 的 TimeZone 至 GMT+8:00,问题依旧。

后来查了一下 JDK 的 API,发现其实 java.util.Date 和 java.util.Calendar 中是有 TimeZone 信息的,这下明白了,在 Calendar.getInstance 的时候,加上 +8 时区的 TimeZone,问题解决,因为目前我只需要在 +8 时区使用这个功能。
posted @ 2011-01-12 10:55 哈哈的日子 阅读(180) | 评论 (0)编辑 收藏
先选上 “系统偏好设置 -> 安全 -> 通用 -> 进入睡眠或开始.....”选项。
然后 control + shift + eject(最右上角的退盘键)
就可以进入屏保了,然后需要密码解锁
posted @ 2011-01-03 17:31 哈哈的日子 阅读(427) | 评论 (0)编辑 收藏
可以为应用定制快捷键,和 windows 下面的 hoekey 有点儿像
软件图标

运行后会在 MenuBar显示一个图标
点击,显示

增加一个快捷方式就可以了
posted @ 2011-01-03 17:13 哈哈的日子 阅读(161) | 评论 (0)编辑 收藏
1. 很有名的 http://www.sinfuliphonerepo.com/
这上面有全套的破解版 lockinfo,还有破解的 MyWi,iFile,相当的多。
2.我最近才知道的 http://theiphonespotrepo.net/apt/
上面有我非常喜欢的 Wi-Fi Sync,可以用 WiFi 与电脑同步,不用接线了。还有非常好的 My3G,支持使用 3G 进行 FaceTime,这个软件在 sinfuliphone 上面也有。
posted @ 2011-01-02 16:42 哈哈的日子 阅读(1314) | 评论 (0)编辑 收藏
按住 command 就可以查看当前可以使用的快捷键了,非常好用!
下载地址
http://www.ergonis.com/downloads/dnld_keycue.html

可用的序列号

SN: KC-MCA-122008-1-182080-408767-1

KC-MCA-122008-46-75994-427759-36

KC-MCA-122008-79-161137-964991-4

KC-MCA-122008-97-87408-790539-10

KC-MCA-122008-73-138209-878696-68

KC-MCA-122008-90-92030-853288-16

KC-MCA-122008-37-86090-647601-4

KC-MCA-122008-90-116413-467930-42 

KC-MCA-122008-65-68077-631067-3

KC-MCA-122008-86-106715-366213-67

posted @ 2010-12-25 21:06 哈哈的日子 阅读(213) | 评论 (0)编辑 收藏
     摘要: http://www.chinamac.com/2009/1012/49609.html
在选择系统语言的时候,你一定注意到了,在你的Home下文件夹会随之变化,
例如在英文时显示Documents,切换到一个使用中文偏好的账户(即便在fast switch)时,显示“文档”,后续介绍mac os x是如何处理的  阅读全文
posted @ 2010-12-22 22:38 哈哈的日子 阅读(985) | 评论 (0)编辑 收藏
     摘要: http://www.levelofindirection.com/journal/2009/10/10/using-a-networked-drive-for-time-machine-backups-on-a-mac.html
You'll find similar information to this around the web, but I find it fiddly enough to piece together reliably, and I need it often enough, that I thought I'd blog about it. That way it at least gives me a single place to look. Maybe it will help others too. Much of the specifcs, especially the hdiutil command line and the ifconfig trick, I sourced from this thread in the Ready  阅读全文
posted @ 2010-12-20 12:56 哈哈的日子 阅读(234) | 评论 (0)编辑 收藏
下面的网址可以浏览,但不是实际下载的地址
http://s3browse.springsource.com/browse/maven.springframework.org/

实际下载的地址是

http://maven.springframework.org/xxxx

就是去掉前面的
http://s3browse.springsource.com/browse/

浏览进去下载一下,看看网址就知道了。

posted @ 2010-12-08 15:50 哈哈的日子 阅读(293) | 评论 (0)编辑 收藏
1424-4118-1138-0912-4001-7222
需要在 hosts 文件中加入
127.0.0.1 activate.adobe.com 
posted @ 2010-12-06 14:18 哈哈的日子 阅读(597) | 评论 (0)编辑 收藏

一、简介

       SQL*LOADERORACLE的数据加载工具,通常用来将操作系统文件迁移到ORACLE数据库中。SQL*LOADER是大型数据仓库选择使用的加载方法,因为它提供了最快速的途径(DIRECTPARALLEL)。使用前提是必须存在目标表。

二、SQL*LOADER使用方法

    Window系统下,SQL Loader的命令为sqlldr,在UNIX下一般为sqlldr/sqlload

有效的关键字:   
userid   --   ORACLE   用户名/口令   
control   --   控制文件名  
log   --   日志文件名 
bad   --   错误文件名,如果有的数据没有被处理,将会出现在这里   
data   --   数据文件名  
discard   --   废弃文件名 
discardmax   --   允许丢弃数据的数目   (全部默认)   
skip   --   要跳过的逻辑记录的数目   (默认0)   
load   --   要加载的逻辑记录的数目   (全部默认)   
errors   --   允许的错误记录数目  (默认50)   
rows   --   常规路径绑定数组中或直接路径保存数据间的行数  (默认:   常规路径   64,   所有直接路径)   
bindsize   --    常规路径绑定数组的大小,以字节计算(默认65536)   
silent   --   运行过程中隐藏的信息   (header,feedback,errors,discards,partitions)   
direct   --   使用直接路径   (默认FALSE)   
parfile   --   参数文件:包含参数说明的文件的名称
parallel   --   执行并行加载   (默认FALSE)   

file -- 要从以下对象中分配区的文件
skip_unusable_indexes -- 不允许/允许使用无用的索引或索引分区  (默认 FALSE)
skip_index_maintenance -- 没有维护索引, 将受到影响的索引标记为无用  (默认 FALSE)

commit_discontinued -- 提交加载中断时已加载的行  (默认 FALSE)
readsize -- 读取缓冲区的大小               (默认 1048576)
external_table -- 使用外部表进行加载; NOT_USED, GENERATE_ONLY, EXECUTE  (默认 NOT_USED)
columnarrayrows -- 直接路径列数组的行数  (默认 5000)
streamsize -- 直接路径流缓冲区的大小 (以字节计)  (默认 256000)
multithreading -- 在直接路径中使用多线程
resumable -- 启用或禁用当前的可恢复会话  (默认 FALSE)
resumable_name -- 有助于标识可恢复语句的文本字符串
resumable_timeout -- RESUMABLE 的等待时间 (以秒计)  (默认 7200)
date_cache -- 日期转换高速缓存的大小 (以条目计)  (默认 1000)

PLEASE NOTE: 命令行参数可以由位置或关键字指定。前者的例子是 'sqlload scott/tiger foo'; 后一种情况的一个示例是 'sqlldr control=foo userid=scott/tiger'.位置指定参数的时间必须早于但不可迟于由关键字指定的参数。例如,允许 'sqlldr scott/tiger control=foo logfile=log', 但是不允许 'sqlldr scott/tiger control=foo log', 即使参数 'log' 的位置正确。

三、SQL*LOADER实例

控制文件脚本实例:

load data    --控制文件表示
infile 'e:\aa.csv'    --有导入的数据文件名
append into table TBL_SYNC_CORE_INSURANCE    --向表TBL_SYNC_CORE_INSURANCE中追加记录
fields terminated by ','  --指定用逗号分隔
OPTIONALLY ENCLOSED BY '"'
TRAILING NULLCOLS  
--表的字段没有对应值时允许为空
*************下面是表的字段
(
  COVERAGE_CODE,
  PRODUCT_NO,
  NAME,
  MAIN_COVERAGE_CODE,
  KIND,
  CREATOR,
  CREATED_DATE,
  MODIFIER,
  MODIFIED_DATE
)

      备注:数据导入的方式上例中用的append,有一下几种:insert,为缺省方式,在数据装载开始时要求表为空;append,在表中追加新记录;replace,删除旧记录,替换成新装载的记录   ;truncate,同replace,会用truncate语句删除现存数据

      在命令行提示符下使用SQL*Loader命令实现数据的输入:

      sqlldr   userid=用户名/口令@服务名   control='e:\control.ctl'   log=e:\log.txt   bad=e:\bad.txt

      如果本地安装了oracle服务端,可以不写服务名;log和bad不写,默认生成在当前目录下。

四、其他导入方法

      利用PLSQL   Developer:

      在单个文件不大的情况下(少于100000行),并且目的表结构已经存在的情况下-----对于excel而言肯定不会超过了,因为excel文件的最大行为65536-----可以全选数据COPY   ,然后用PLSQL   Developer工具。

      1   在PLSQL   Developer的sql   window里输入select   *   from   test   for   update;   
      2   按F8执行;
      3   打开锁,   再按一下加号.   鼠标点到第一列的列头,使全列成选中状态,然后粘贴,最后COMMIT提交即可。

五、补充在Linux下使用 sqlldr 的注意事项

在执行 sqlldr 前,需要进行以下步骤

  1. 设置 ORACLE_HOME 环境变量,如 export ORACLE_HOME=/usr/lib/oracle/xe/app/oracle/product/10.2.0/server
  2. 设置ORACLE编码格式,将本地字符集和ORACLE字符集设置为一致,如export NLS_LANG="SIMPLIFIED CHINESE_CHINA.AL32UTF8"
  3. 将csv文件转码成相应的编码

然后再使用 sqlldr 进行数据导入

posted @ 2010-11-07 15:42 哈哈的日子 阅读(4139) | 评论 (0)编辑 收藏
原因:

因为公司搬迁,两天左右,svn服务器不能使用,需要搭建临时的 svn 服务器。

一、备份 svn 服务器:

首先,使正在使用的 svn 无法提交。方法是:

在正在使用的 svn 服务器上,增加一个 pre-commit hook,在不使用 perl, python 等脚本的情况下,windows 就是 pre-commit.bat,linux 就是 pre-commit

使这个 hook 始终 exit 1

然后旧的 svn 服务器就没办法提交了。

文件 copy 一份出来就可以了,放在另外一个服务上,启动,然后让大家 relocate 一下,就可以使用新的 svn 服务器了。

二、恢复 svn 服务器

旧的 svn 依然不能提交,即 pre-commit hook exit 1,将新的 svn 服务器也设置为不能提交。

然后:

在新的 svn 服务器上,使用 svnadmin dump -r xxx:HEAD --incremental > dump 进行增量的版本库 dump

xxx 是我们备份的下一个版本号

将旧的 svn 服务器设置为可以提交,即删除 pre-commit hook 或修改为正常使用的 hook,然后在旧的 svn 服务器上使用 svnadmin load < dump 就可以将新的服务器上提交的内容恢复到旧的服务器上。

让大家 relocate 回到旧的服务器上,就可以了。

完成!
posted @ 2010-10-16 13:09 哈哈的日子 阅读(917) | 评论 (3)编辑 收藏

这种方法SEO不好,需要SEO的,请不要使用。
在ckeditor中,增加分页符,然后可以使用下面的代码进行 js 分页。


$(
function() {
    
var top = "#content";
    
var content = $(top);
    
var all = content.find("*");
    
var pages = [];
    
function hideContent() {
        all.hide();
    }
    
function showArray(arr) {
        $.each(arr, 
function(i) {
            
this.show().parentsUntil(top).show();
        });
    }
    
function initPages(pageBreaks) {
        pageBreaks.each(
function(index) {
            $(
this).attr("id""pageBreak" + index);
        });
        
var current = 0;
        pages[
0= [];
        all.each(
function(i) {
            
var id = $(this).attr("id");
            
if(id == "pageBreak" + current) {
                current
++;
                pages[current] 
= [];
            } 
else {
                pages[current].push($(
this));
            }
        });
    }
    
function showPage(i) {
        hideContent();
        showArray(pages[i]);
    }
    
var pageBreaks = content.find("div[style]").filter(function() {
        
return $(this).css("page-break-after"== "always";
    });
    
if(pageBreaks.size() > 0) {
        initPages(pageBreaks);
        $(
"#pagingBar").pagination(pages.length, {
            callback: 
function(index) {
                showPage(index);
            },
            prev_text: '
<',
            next_text: '
>',
            items_per_page: 
1,
            num_display_entries: 
5,
            num_edge_entries: 
2
        });
        showPage(
0);
    }
    $(
"#content").show();
});
posted @ 2010-06-23 00:58 哈哈的日子 阅读(985) | 评论 (0)编辑 收藏
grant all privileges on *.* to root@'%' identified by '' with grant option;
posted @ 2010-06-11 15:02 哈哈的日子 阅读(206) | 评论 (0)编辑 收藏
产品需要一个邮件服务器,目标定位在 Apache James,原因是 sendmail 不好配,没弄明白。
开工!

1. 下载 James,是个 zip 包或是 tar 包,解压,windows 下不说,linux 下 tar -xf apache-james-2.3.2.tar.gz
2. 到 james-x.x.x/bin 目录下,linux 需要 chmod a+x *.sh,加上执行属性,然后运行 ./phoenix.sh start,然后快点儿 ./phoenix.sh stop,start 是因为会生成一个展开目录的 james,快一些 stop 是因为无数的垃圾邮件服务器在连接你,用你当垃圾邮件发送器
3. 修改 james-x.x.x/apps/james/SAR-INF/config.xml 文件,这步是最重要的。
    a) 修改 <servername>haha.com</servername>,把这个修改为你的域名,注意:要和你的机器 hostname 一致,至于怎么改 hostname,请参考我转的另一篇文章
    b) 把下面这段注释掉
         <mailet match="RemoteAddrNotInNetwork=127.0.0.1" class="ToProcessor">
            <processor> relay-denied </processor>
            <notice>550 - Requested action not taken: relaying denied</notice>
         </mailet>
    c) 把下面这段原来被注释掉的去掉注释
         <authRequired>true</authRequired>
    d) 把下面的被注释掉的,也去掉注释
         <verifyIdentity>true</verifyIdentity>
    e) 修改 root 密码,就是这行 <account login="root" password="new_password"/>
4. 重新执行 ./phoenix.sh start

你已经成功了。
posted @ 2010-05-31 22:32 哈哈的日子 阅读(566) | 评论 (0)编辑 收藏
http://www.onlyit.cn/bbs_html/200603/article_49_1284.htm

域名记录简介 
概述 
成功注册了域名之后,域名的日常管理就是对各种域名记录的配置和管理。下面我对常用的三种域名记录进行一个简单的介绍,这三种域名记录类型分别是 A 记录(地址记录)、 CNAME 记录(别名记录)和 MX 记录(邮件服务器记录)。前面两种主要作用都是将一个域名解释成一个 IP 地址,用于几乎所有的 TCP/IP 通信。后一种是将一个域名解释成一个邮件服务器的域名,只用于 SMTP (互联网的邮件系统)通信过程。 
在开始之前需要简单说明一下 DNS 系统所作的事情不仅仅是将域名解释成 IP 地址。 DNS 实际上作的是名字翻译工作。虽然在 TCP/IP 环境下最后基本上都会牵扯到 IP 地址。但是 DNS 允许通过不同的类型让同一个名称拥有不同的含义。比如同样的 oray.net 这个名称在 Web/FTP 通信过程中对应的是一个地址,在 SMTP 通信中则变成一个邮件服务器。这样就允许我们将 Web 和 SMTP 服务器放在不同的 IP 地址上。 
DNS 服务器进行名字解释的时候依赖的是一个数据文件,每个域名都有一个独立的数据文件,这个文件包括了该域名所有的名称,名称对应的类型和对应的类型数据。 DNS 规定的名称类型有近 20 个,不过常用的除了我们下面介绍的三种外,还有就是 soa 记录和 NS 记录。 
记录生存时间 
所有的名字记录都有一个相同的属性就是生存时间( TTL ),这个属性用来控制其它 DNS 服务器在什么时候删除这个记录的解释结果,是一个非常重要的参数。在前面我们讲过为了提高域名解释的速度。一般的 DNS 服务器都会缓存代理解释的结果。但是如果授权服务器的记录发生改变,曾经代理解释过这个记录的 DNS 服务器不会那么快反应这个变化。因为在记录缓存失效之前,这些服务器会使用缓存中的结果回答收到的查询申请。所以缓存虽然提高了查询效率,但是负面的作用就是变化的反应时间延长。技术上叫收敛过程缓慢,一个记录的缓存时间越长,收敛就越慢。在同一个域名下不同的域名记录的缓存时间是可以单独控制的,对于经常需要变化的域名记录我们一般采用较短的缓存时间。 
为了改善这种慢收敛效应, DNS 规定了记录的代理解释的服务器在使用缓存数据回应的时候,包含在回应数据中的缓存时间是原始缓存时间减去已经缓存的时间。例如一个记录在授权服务器上设置的缓存时间是 1 小时,那么代理解释服务器通过授权服务器得到的结果的原始缓存时间就是 1 小时,缓存了半小时后,代理解释服务器上再次受到解释请求,这是服务器通过缓存解释域名,不过回应的时候告诉客户这股只剩下半小时的缓存时间。如果客户是另一台代理服务器那么这台服务得到的原始缓存时间就只有半小时了。这样的机制保证了一个记录变化之后最坏情况下被缓存的时间最长就是设定的生存时间。 
A 记录(地址记录) 
这种记录是最简单的一种记录类型,其功能就是将域名解释成一个 IP 地址。配置的时候(不同的系统有不同的操作界面,不过基本的原理差不多)输入名称和一个 IP 地址。留意一下生存时间就可以了。 
一个名字可以对多个 IP 地址,这样就需要使用多条 A 记录来实现。在解释的时候 DNS 服务器基本上都会支持一种 “ 轮换 ” ( Round Robin )机制。如果同一个类型的同一个名字有多条记录,虽然每次查询都斛返回所有的记录内容,不过在返回的过程中数据排列的顺序每次都不相同。由于大部分的客户端只选择第一条记录所以通过这种方式可以实现一定程度的负载平衡。 
CNAME (别名记录) 
这种记录的作用是将一个域名解释成另外一个域名,两个域名不一定需要在同一个域下。通常为了方便域名的管理。如果一个 IP 地址对应着多个域名的话,经常使用若干条 CNAME 记录和一条 A 记录来替代多条 A 记录。这样当 IP 地址发生变化的时候只需要改变一条 A 记录就可以了。 
理论上别名记录本身也可以只想另外一个别名记录,不过一般不这么做。应为最后我们需要的是得到一个地址。多极别名会大大降低域名的查询速度,而且一些服务器不会正常解释这种域名记录。 
MX (邮件服务器记录) 
这种记录用来说明负责接受指定域名的邮件的邮件服务器是哪一个。仅用于 SMTP 服务转发邮件的时候。当 SMTP 服务器需要向外转发 name@Domain.com 的邮件的时候。首先会像 DNS 查询类行为 MX ,名称为 Domain.Com 的记录。如果没有 MX 记录则会使用 A 类型再查询一次。所以 MX 记录在一定程度上是可以使用 A 记录替代的。 
MX 记录的结果比上面两个稍微复杂一些,它包含一个邮件服务器的域名和一个邮件服务器的优先级,如果你的域名使用多个 SMTP 服务器接受邮件的话,你可以使用多条 MX 记录指出所有的邮件的服务器,通过优先级参数配置那一台服务作为首选服务器。一般情况下邮件会发给优先级最高的服务器(数值最小的),如果该服务器不能连通,则转到下一个优先级的服务器。想通优先级的服务器的顺序可以由 “ 轮换 ” 机制决定。 
一般情况下,即使你的其他服务器和邮件服务区使用相同的 IP 地址也建议使用 MX 记录来表示邮件服务器。相对于简单的 A 记录来说, MX 记录的优先级可以控制,另外你保持了邮件服务和其他服务的独立性。
posted @ 2010-05-30 00:26 哈哈的日子 阅读(275) | 评论 (0)编辑 收藏
test
test
test
e538-c851-cf5a-930c-1943
posted @ 2010-05-27 09:44 哈哈的日子 阅读(341) | 评论 (0)编辑 收藏
有篇文章讲得太好了,引用在下面:

怎样修改Linux的hostname
http://hi.chinaunix.net/?uid-13066923-action-viewspace-itemid-30947

Linux操作系统的hostname是一个kernel变量,可以通过hostname命令来查看本机的hostname。也可以直接cat /proc/sys/kernel/hostname查看。

#hostname
#cat /proc/sys/kernel/hostname
上面两种输出结果相同。

修改运行时Linux系统的hostname,即不需要重启系统
hostname命令可以设置系统的hostname

#hostname newname
newname即要设置的新的hostname,运行后立即生效,但是在系统重启后会丢失所做的修改,如果要永久更改系统的hostname,就要修改相关的设置文件。

永久更改Linux的hostname

man hostname里有这么一句话,”The host name is usually set once at system startup in /etc/rc.d/rc.inet1 or /etc/init.d/boot (normally by reading the contents of a file which contains the host name, e.g. /etc/hostname).” RedHat里没有这个文件,而是由/etc/rc.d/rc.sysinit这个脚本负责设置系统的hostname,它读取/etc /sysconfig/network这个文本文件,RedHat的hostname就是在这个文件里设置。

所以,如果要永久修改RedHat的hostname,就修改/etc/sysconfig/network文件,将里面的HOSTNAME这一行修改成HOSTNAME=NEWNAME,其中NEWNAME就是你要设置的hostname。

Debian发行版的hostname的配置文件是/etc/hostname。

修该配置文件后,重启系统就会读取配置文件设置新的hostname。

hostname与/etc/hosts的关系

很过人一提到更改hostname首先就想到修改/etc/hosts文件,认为hostname的配置文件就是/etc/hosts。其实不是的。

hosts文件的作用相当如DNS,提供IP地址到hostname的对应。早期的互联网计算机少,单机hosts文件里足够存放所有联网计算机。不过随着互联网的发展,这就远远不够了。于是就出现了分布式的DNS系统。由DNS服务器来提供类似的IP地址到域名的对应。具体可以man hosts。

Linux系统在向DNS服务器发出域名解析请求之前会查询/etc/hosts文件,如果里面有相应的记录,就会使用hosts里面的记录。/etc/hosts文件通常里面包含这一条记录

127.0.0.1    localhost.localdomain   localhost
hosts文件格式是一行一条记录,分别是IP地址 hostname aliases,三者用空白字符分隔,aliases可选。

127.0.0.1到localhost这一条建议不要修改,因为很多应用程序会用到这个,比如sendmail,修改之后这些程序可能就无法正常运行。

修改hostname后,如果想要在本机上用newhostname来访问,就必须在/etc/hosts文件里添加一条newhostname的记录。比如我的eth0的IP是192.168.1.61,我将hosts文件修改如下:

#hostname blog.infernor.net
# cat /etc/hosts
127.0.0.1  localhost.localdomain localhost
192.168.1.61    blog.infernor.net       blog
这样,我就可以通过blog或者blog.infernor.net来访问本机。

从上面这些来看,/etc/hosts于设置hostname是没直接关系的,仅仅当你要在本机上用新的hostname来访问自己的时候才会用到/etc/hosts文件。两者没有必然的联系。

RHEL还有个问题。

我开始在测试的时候,只修改/etc/hosts,里面添加 192.168.1.61 blog.infernor.net blog,而/etc/sysconfig/network维持原状,也就是里面的HOSTNAME=localhost.localdomain。我重启系统后居然发现hostname给修改成了blog.infernor.net。这样看的话,倒真觉得/etc/hosts是hostname的配置文件。后来终于在/etc/rc.d/rc.sysinit这个启动脚本里发现了问题的所在。

rc.sysinit文件里一开始就设置了hostname

if [ -f /etc/sysconfig/network ]; then
. /etc/sysconfig/network
fi
if [ -z "$HOSTNAME" -o "$HOSTNAME" = "(none)" ]; then
HOSTNAME=localhost
fi
确实使用了/etc/sysconfig/network里的hostname值。不过后面还有一段关于设置hostname的

ipaddr=
if [ "$HOSTNAME" = "localhost" -o "$HOSTNAME" = "localhost.localdomain" ]
; then
ipaddr=$(ip addr show to 0/0 scope global | awk '/[[:space:]]inet
/ { print gensub("/.*","","g",$2) }')
if [ -n "$ipaddr" ]; then
eval $(ipcalc -h $ipaddr 2>/dev/null)
hostname ${HOSTNAME}
fi
fi
脚本判断hostname是否为localhost或者localhost.localdomain,如果是的话,将会使用接口IP地址对应的 hostname来重新设置系统的hostname。问题就出在这里,我的/etc/sysconfig/network默认的hostname是 localhost.localdomain,eth0的IP是192.168.1.61,而/etc/hosts里有192.168.1.61的记录。于是就用192.168.1.61这条记录来替换了hostname。

估计这也是很多人将/etc/hosts误以为是hostname的配置文件的原因。

hostname带选项查询

hostname的-s -f -i等等选项都用到了/etc/hosts或者DNS系统,跟我们讨论的hostname有点远了,也容易产生误会。具体可以man hostname查看。

posted @ 2010-05-25 20:17 哈哈的日子 阅读(847) | 评论 (0)编辑 收藏
     摘要:   阅读全文
posted @ 2010-04-13 16:55 哈哈的日子 阅读(474) | 评论 (0)编辑 收藏
SET FOREIGN_KEY_CHECKS=0;

方便啊,平时多累啊。
posted @ 2010-04-13 16:27 哈哈的日子 阅读(220) | 评论 (0)编辑 收藏
修改 /etc/my.cnf 文件,在 [mysqld] 中增加

log             = /path/mysql.log
log_slow_queries= /path/mysql_slow.log
long_query_time = 1

即可
posted @ 2010-04-12 13:37 哈哈的日子 阅读(508) | 评论 (0)编辑 收藏
jQuery 1.4.2
  • IE 6.0+
  • FF 2+
  • Safari 3.0+
  • Opera 9.0+
  • Chrome
Dojo 1.4
  • Firefox 2 support dropped. Firefox 3.0 through 3.6 supported.
  • Latest Safari (Safari 4) and latest Chrome (Chrome 3) supported, but not previous versions.
  • IE6, IE7, IE8 all supported.
  • Latest Opera (Opera 10) (Dojo core only).
  • Keyboard now supported in all supported browsers (previously it didn't work on Safari and on Chrome)
Extjs 3.2
  • Internet Explorer 6+
  • FireFox 1.5+ (PC, Mac)
  • Safari 3+
  • Opera 9+ (PC, Mac)
MooTools 1.2.4
  • Safari 2+
  • Internet Explorer 6+
  • Firefox 2+ (and browsers based on gecko)
  • Opera 9+
Prototype 1.6 没找到
 
另外,Google为大部分的js框架提供CDN服务,列表如下:
  • jQuery
  • jQuery UI
  • Prototype
  • script.aculo.us
  • MooTools
  • Dojo
  • SWFObject
  • Yahoo! 用户界面库 (YUI)
  • Ext Core新增!
具体可参考http://code.google.com/intl/zh-CN/apis/ajaxlibs/
posted @ 2010-04-07 09:51 哈哈的日子 阅读(1456) | 评论 (0)编辑 收藏
     摘要: (?:^| )editor(?:$| )

看了半天没明白,后来打开 RegexTester 试了一下,原来(?:^| )是“字符串开始或空格开头”的意思,后面的(?:$| )同理。
sigh,以为自己正则表达式也看过一些了,但看了 perl 和 js 一些库之后,觉得自己的正则表达式水平怎么也忒差了点儿,再学学吧。

另外:
CKEditor 的 config.js 里面的内容是

CKEDITOR.editorConfig = function( config )
{
// Define changes to default configuration here. For example:
//config.language = 'fr';
config.uiColor = '#CCDC6E';
};

我眼花了,还以为是返回一个 Object config 呢,害得我写上了:

config.filebrowserUploadUrl :   阅读全文
posted @ 2010-04-05 11:44 哈哈的日子 阅读(1443) | 评论 (1)编辑 收藏
把 Nexus 加成服务的时候启动不了,发现的这个问题。
同样启动 sonar 也有这个问题。
posted @ 2010-04-02 10:13 哈哈的日子 阅读(159) | 评论 (0)编辑 收藏
如果使用 Nexus 的话,需要配置一个 Proxy Repository,目标指向 http://yoursonar:sonarport/deploy/maven,如果没改过什么的话,应该是 http://localhost:9000/deploy/maven

另外,可以直接访问 http://localhost:9000/deploy/maven/README.txt,有一些说明性的内容。
posted @ 2010-03-30 17:40 哈哈的日子 阅读(491) | 评论 (0)编辑 收藏

我使用的是 163 的邮箱和iphone手机,手机支持pushmail的功能,但163邮件不支持。
以下做法可以让我的163邮箱好象有pushmail的功能,还带有免费的短信通知,前提是用移动的手机。

通过移动手机申请个139的邮箱,并打开短信通知功能。
申请个 gmail,可以在 gmail 里设置使用 163 的邮件地址做为发件人地址。
设置163邮箱自动转发至gmail邮箱中(以前自动转发是收费服务,我今天试了一下,好象不要钱了)
设置 gmail 邮件转发至 139 邮箱中。
当然还要配置手机的 push mail 至 gmail

这样的话,当 163 邮箱收到邮件的时候,手机会收到 push mail(来自gmail)和短信通知(来自139邮箱)


posted @ 2010-03-27 12:08 哈哈的日子 阅读(334) | 评论 (0)编辑 收藏
首先,对一个 array 进行排序,但得到的结果与想象的不一样,是 2010-1-13, 2010-1-22, 2010-1-15
        var sortArray=[
         {title:"aaa", date:"2010-1-22"},
         {title:"trtttt", date:"2010-1-15"},
         {title:"erere", date:"2010-1-13"}
        ];
        sortArray.sort(function(x,y){
         var x1=new Date(x.date.replace("-","/"));
         var y1=new Date(y.date.replace("-","/"));
         //alert("x1=" + (x1.getMonth()+1)+"/"+x1.getDate() + ", y1 = " + (y1.getMonth()+1)+"/"+y1.getDate() + ", x1 > y1 = " + (x1 - y1));
         return x1>y1;
        });
        for(var i=0;i<sortArray.length;i++) {
         var x1=new Date(sortArray[i].date.replace("-","/"));
         alert(x1.getYear() + "-" + (x1.getMonth() + 1) + "-" + x1.getDate() + " , " + sortArray[i].date + " | " + sortArray[i].title);  
        }
要把标红的部分改成
        return x1-y1;
看来,js 排序的时候为了内部优化,排序和 sort 的 function 结果有关。
posted @ 2010-03-22 14:01 哈哈的日子 阅读(621) | 评论 (1)编辑 收藏

转自:http://cupoy.javaeye.com/blog/251796

1. 脏读 :脏读就是指当一个事务正在访问数据,并且对数据进行了修改,而这种修改还没有提交到数据库中,这时,另外一个事务也访问这个数据,然后使用了这个数据。

2. 不可重复读 :是指在一个事务内,多次读同一数据。在这个事务还没有结束时,另外一个事务也访问该同一数据。那么,在第一个事务中的两次读数据之间,由于第二个事务的修改,那么第一个事务两次读到的的数据可能是不一样的。这样就发生了在一个事务内两次读到的数据是不一样的,因此称为是不可重复读。例如,一个编辑人员两次读取同一文档,但在两次读取之间,作者重写了该文档。当编辑人员第二次读取文档时,文档已更改。原始读取不可重复。如果只有在作者全部完成编写后编辑人员才可以读取文档,则可以避免该问题。

3. 幻读 : 是指当事务不是独立执行时发生的一种现象,例如第一个事务对一个表中的数据进行了修改,这种修改涉及到表中的全部数据行。同时,第二个事务也修改这个表中的数据,这种修改是向表中插入一行新数据。那么,以后就会发生操作第一个事务的用户发现表中还有没有修改的数据行,就好象发生了幻觉一样。例如,一个编辑人员更改作者提交的文档,但当生产部门将其更改内容合并到该文档的主复本时,发现作者已将未编辑的新材料添加到该文档中。如果在编辑人员和生产部门完成对原始文档的处理之前,任何人都不能将新材料添加到文档中,则可以避免该问题。

补充 : 基于元数据的 Spring 声明性事务 :

Isolation 属性一共支持五种事务设置,具体介绍如下:

l          DEFAULT 使用数据库设置的隔离级别 ( 默认 ) ,由 DBA 默认的设置来决定隔离级别 .

l          READ_UNCOMMITTED 会出现脏读、不可重复读、幻读 ( 隔离级别最低,并发性能高 )

l          READ_COMMITTED  会出现不可重复读、幻读问题(锁定正在读取的行)

l          REPEATABLE_READ 会出幻读(锁定所读取的所有行)

l          SERIALIZABLE 保证所有的情况不会发生(锁表)

不可重复读的重点是修改 :
同样的条件 ,   你读取过的数据 ,   再次读取出来发现值不一样了
幻读的重点在于新增或者删除
同样的条件 ,   第 1 次和第 2 次读出来的记录数不一样

posted @ 2010-03-10 11:09 哈哈的日子 阅读(211) | 评论 (0)编辑 收藏

编译 Trigger 出错,错误的原因是找不到sequence,但是在 sql 里面使用这个sequence非常正常。找了半天原因,另一个同事试了一下给这个sequence授权,就可以编译通过了。
疑惑了很久,为什么sql中可以用,编译trigger就不能用了呢。
查了一些资料,才明白。
是因为 Oracle 在编译Procedu的时候,只检查当前用户的权限,而不管角色。所以,即使这个用户是DBA,也没有用,必须要对这个用户授权。这就是显式授权。
我在CSDN上找到了一个很好的文章,解释了显式授权和隐式授权的区别。
附在下面。






来自CSDN博客,http://blog.csdn.net/pashine/archive/2009/12/21/5050060.aspx


oracle 对象的授权
Oracle授权

 

一、授权语法


GRANT 语法:

1.显式授权(直接将对象授权给用户)
 GRANT privilege [, ...] ON object [, ...]  TO  { Public| Group | Username|role} [WITH GRANT OPTION ] 
  
2.隐式授权(通过将角色授权给用户)
 GRANT role TO  { Public| Group | Username|role}

语法说明:

privilege (权限)
   可能的权限有:
     SELECT--访问声明的表/视图的所有列/字段.
     INSERT--向声明的表中插入所有列字段.
     UPDATE--更新声明的所有列/字段.
     DELETE --从声明的表中删除所有行.
     RULE   在表/视图上定义规则 (参见 CREATE RULE 语句).
     ALL 赋予所有权限.

object 赋予权限的对象名.
    可能的对象是: 
     table (表)
     view (视图)
     sequence (序列)
     index (索引)
Public    代表是所有用户的简写.
Group     将要赋予权限的组GROUP .目前的版本中,组必须是用下面方法显式创建的.
Username  将要赋予权限的用户名.PUBLIC 是代表所有用户的简写.
role      某个角色,(如DBA)
WITH GRANT OPTION 允许向别人赋予同样权限,被授权的用户可以继续授权.


描述
    对象创建后,除了创建者外,除非创建者赋予(GRANT)权限,其他人没有访问对象的权限。
    GRANT 允许对象的创建者给某用户或某组或所有用户(PUBLIC)某些特定的权限。不需要给创建者赋予(GRANT)对象的权限,创建者自动拥有对象的所有权限,包括删除它的权限。

说明

Oracle不允许在过程中使用未经显式授权的对象. 要使用另一用户的对象,必须通过另一用户给自己显示授权。

因为Oracle在编译存储过程时并不检查定义者拥有的角色,只是检查其被显式授予的权限,而DBA也是一种角色,所以即使是DBA,也需要显式授权。

二、授权方式 (显式和隐式)


  对象授权有两种模式,显式和隐式: 
显示授权和隐式授权的区别是:显示授权是直接把对象授权给用户,隐式授权是给用户授予角色的方式来实现授权。

1. 显式授权是直接用GRANT语句进行授权。
 语法:GRANT 某种权限 TO 用户
如:
  CONN  USER1/Password
  GRANT SELECT  ON TABLE1 TO USER2;    --- 将user1的表TABLE1的select 权限显示授权给user2
  GRANT UPDATE  ON TABLE1 TO USER2;    --- 将user1的表TABLE1的update权限显示授权给user2


  注:用system/manager登录是没法授权的,要使USER2用户能在存储过程里面访问USER1用户的表,必须以USER1用户(该用户有dba权限)登录,然后授权就可以了。
  SQL>grant select on USER1.MA_USERINFO to USER2

2.隐式授权则是通过ROLE来授权。
 语法:GRANT 某个角色 TO 用户
如: 
  CONN  USER1 
  GRANT SELECT ON TABLE1 TO ROLE1;     --- 将USER1的表TABLE1的select权限显示授权给Role1
  CONN  SYSTEM 
  GRANT ROLE1 TO USER2;                --- 给USER2授与Role1的权限。


三、收回权限


   语法:
       revoke 权限 from 用户;

   例子:

  revoke select on table1 from User1; 收回查询select表的权限;
  revoke all    on table1 from User1;
    grant  connect to xujin;
  revoke  connect  from xujin

      revoke  ROLE1    from USER2;

End

posted @ 2010-03-05 11:25 哈哈的日子 阅读(1135) | 评论 (0)编辑 收藏

command + L : safari 在地址栏输入网址

command + option + L : safari 显示下载列表

command + shift + [ : safari 选择上一个标签

command + shift + ] : safari 选择下一个标签

command + enter : safari 在新的 tab 页中打开网页,也可以 command + 点击链接

fn + delete : 删除光标后面的字母,相当于 windows 下面的 delete

control + a : 相当于 windows 下的 home

control + e : 相当于 windows 下的 end

command + option + f : safari 中的 google search

command + option + ctrl + ⏏ : 关机

command + option + 拖拽 : 建立快捷方式

option + 点击已经最小化窗口 : 还原全部最小化窗口

posted @ 2010-02-03 20:45 哈哈的日子 阅读(188) | 评论 (0)编辑 收藏
1. 准备mysql,参考jira 4.0.1 war 方式的安装过程,使用mysql第1步,将数据库名由jiradb修改为confluence
2. 准备tomcat,参考jira 4.0.1 war 方式的安装过程,使用mysql第2步,2-b不做
3. 准备confluence
  a)下载confluence-3.1.zip,解压到一个临时目录$confluence_temp
  b)修改$confluence_temp\confluence\WEB-INF\classes\confluence-init.properties,增加一行 confluence.home=D:/atlassian/confluence,红色部分修改为实际的目录,confluence相关的数据会存到这个目录。
  c)下载confluence_crack.rar,将文件解压到$confluence_temp\confluence\WEB-INF\classes目录下
  d)运行$confluence_temp\build.bat
  e)将$confluence_temp\dist\confluence-3.1.war文件放到合适的目录下$confluence_war(或者不移动)
  f)在$catalina_home\conf\Catalina\localhost目录下创建confluence.xml,内容为<Context path="/confluence" docBase="$confluence_war" debug="0" reloadable="true" />,将$confluence_war替换为上一步的文件路径

然后启动tomcat,访问http://localhost:8080/confluence就可以了

license填写如下

Description=Confluence\: COMMERCIAL
NumberOfUsers=500
CreationDate=2010-01-22
ContactName=haha@haha.haha
conf.active=true
ContactEMail=haha@haha.haha
Evaluation=false
conf.LicenseTypeName=COMMERCIAL
MaintenanceExpiryDate=2011-01-21
conf.NumberOfClusterNodes=0
Organisation=haha
ServerID=HAHA-HAHA-HAHA-HAHA
LicenseID=LID
LicenseExpiryDate=2011-01-21
PurchaseDate=2010-01-22
posted @ 2010-01-25 10:59 哈哈的日子 阅读(2257) | 评论 (1)编辑 收藏