2007年6月27日
#
https://www.cnblogs.com/zbseoag/p/11736006.html
作者:AsReader
链接:https://www.zhihu.com/question/64845885/answer/1122345134
来源:知乎
https://www.cnblogs.com/chaos-li/p/11970713.html
https://www.jianshu.com/p/7403371162c1
众所周知,vmware安装iso格式的系统都是一步步按流程一气呵成。win7和xp很多时候不得不安装ghost系统,理由:打补丁太耗费时间了!截止2018.08月,若安装原版win7 sp1,补丁安装约需5小时以上,如今网速不是问题主要影响时间的是安装补丁的时间。然而为了省时经常win7不得不安装ghost win7 且格式为*.gho。比如:专注于win7…… 折腾了大半天作文以记之方便后人,总的来说3步:
第一步:需要”纯净的PE.iso“和”ghost win7镜像“
PE:推荐 微pehttp://www.wepe.com.cn/或者IT天空的优启通https://www.itsk.com/topic-software.html
如图下载好后,免安装的,双击打开,点击右下角最后一个图标,生成iso。(可保留不必要每次都生成)
第二步:Vmware》新建虚拟机》典型》稍后安装操作系统》windows》按实际情况选择下一步系统类型》虚拟系统名称》安装位置》分配的大小》拆成多个(不然不好拷贝复制给别处)》完成 @这一步和平时一样的高手请略过。
演示第二步的新建
第三步:选择从已经准备好的pe启动》进入pe分配空间》关闭》映射到本地磁盘》将gho格式镜像复制进去》改变启动项》进入pe》还原》重启》ok。 @这一步操作演示如下,建议参考后再操作。
分配空间
映射空间方便把本地ghost镜像复制过去(原因:权限问题虚拟机与物理机隔离的)
标题
断开本地映射》改变启动项(键盘方向键左或右操作移动到Boot,键盘+或-键,移动让CD-ROM顺序到最上面位置,F10保存。)》进入pe》打开这个软件》选择delete》一键还原》还原完成挂起》DVD/cd改成物理。教程全部结束!!!
如有细节疑问请仔细看视频教程,亲自试过才写的教程。
yanchenyuvip@qq.com
bios操作图文流程:
鼠标点击右键,依次选择”电源”——”关机”,然后再鼠标右键依次选择“电源”——“启动时进入BIOS”,这样我们就能进入虚拟机的BIOS面板了,这个操作甚至比在实体机进入BIOS面板还简单哦。
下面的BIOS面板,使用键盘的上下左右键可以进行上下左右的选择,使用键盘的加号“+”减号“-“键可以调整项目的上下顺序。我们先使用右方向键移到导航菜单“Boot”界面,在这里我们使用下方向键先选中“CD-ROM Drive”,然后使用加号键“+”把它移到第一位,这样我们就能把软驱的启动顺序设定为第一了。
按F10,选yes保存退出。
————————————————
版权声明:本文为CSDN博主「闫有尽意无琼」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/yanchenyu365/article/details/82023226
0.前言
本文介绍了如何搭建Shibboleth,实现Shibboleth+Ldap的SSO解决方案
1.什么是Shibboleth
Shibboleth是一个基于标准的,实现组织内部或跨组织的网页单点登录的开源软件包。它允许站点为处于私有保护方式下的受保护的在线资源做出被通知的认证决定。
Shibboleth软件工具广泛使用联合的身份标准,主要是OASIS安全声称标记语言(SAML),来提供一个联合单点登录和属性交换框架。一个用户用他的组织的证书认证,组织(或IdP)传送最少的必要的身份信息给SP实现认证决定。Shibboleth也提供扩展的隐私功能,允许一个用户和他们的主站点来控制释放给每一个应用的属性。
Shibboleth项目作为一个Internet2中间件活动启动于2000年,这年晚些时候该项目和OASIS SAML工作组的工作相联系。Shibboleth1.0 于2003年发布,并快速被全世界的研究和教育机构使用。随着2005年SAML2.0的发布,2006年Shibboleth2.0也发布,SAML标准升级到包含所有的多边,由Shibboleth首创的元数据驱动方法。
Shibboleth作为开源软件开发,在Apache 软件许可证下发布。关于个别部件的更多信息可以在产品页面看到。
2.安装Shibboleth Identity Provider v3.2.1
- 切换成root
sudo su
2.下载Shibboleth Identity Provider v3.2.1
wget http://shibboleth.net/downloads/identity-provider/latest/shibboleth-identity-provider-3.2.1.tar.gz tar -xzvf shibboleth-identity-provider-3.2.1.tar.gz cd shibboleth-identity-provider-3.2.1
3.安装Shibboleth Idenentity Provider:
sh-3.2# ./install.sh Source (Distribution) Directory (press <enter> to accept default): [/Users/zhaoyu.zhaoyu/Applications/shibboleth-identity-provider-3.3.2] Installation Directory: [/opt/shibboleth-idp] Hostname: [localhost.localdomain] testdomain.com SAML EntityID: [https://testdomain.com/idp/shibboleth] Attribute Scope: [localdomain] Backchannel PKCS12 Password: Re-enter password: Cookie Encryption Key Password: Re-enter password: Warning: /opt/shibboleth-idp/bin does not exist. Warning: /opt/shibboleth-idp/dist does not exist. Warning: /opt/shibboleth-idp/doc does not exist. Warning: /opt/shibboleth-idp/system does not exist. Warning: /opt/shibboleth-idp/webapp does not exist. Generating Signing Key, CN = testdomain.com URI = https://testdomain.com/idp/shibboleth ... ...done Creating Encryption Key, CN = testdomain.com URI = https://testdomain.com/idp/shibboleth ... ...done Creating Backchannel keystore, CN = testdomain.com URI = https://testdomain.com/idp/shibboleth ... ...done Creating cookie encryption key files... ...done Rebuilding /opt/shibboleth-idp/war/idp.war ... ...done BUILD SUCCESSFUL Total time: 1 minute 14 seconds
(from now "{idp.home}" == /opt/shibboleth-idp/)
4.导入 JST library (status界面会用到):
cd /opt/shibboleth-idp/edit-webapp/WEB-INF/lib wget https://build.shibboleth.net/nexus/service/local/repositories/thirdparty/content/javax/servlet/jstl/1.2/jstl-1.2.jar cd /opt/shibboleth-idp/bin ./build.sh -Didp.target.dir=/opt/shibboleth-idp
3.安装指引
3.1 安装apache tomcat 8
1.切换成root
sudo su -
2.修改tomcat的%{CATALINA_HOME}/conf/server.xml
将8080端口和8443端口的地方分别改成80和443
<Connector port="80" protocol="HTTP/1.1" connectionTimeout="20000" redirectPort="443" />
3.生成证书文件
[chengxu@local]keytool -genkeypair -alias "tomcat" -keyalg "RSA" -keystore "./tomcat.keystore" 输入密钥库口令: 再次输入新口令: 您的名字与姓氏是什么? [Unknown]: cheng 您的组织单位名称是什么? [Unknown]: testdomain.com 您的组织名称是什么? [Unknown]: testdomain.com 您所在的城市或区域名称是什么? [Unknown]: 您所在的省/市/自治区名称是什么? [Unknown]: 该单位的双字母国家/地区代码是什么? [Unknown]: CN=cheng, OU=testdomain.com, O=testdomain.com, L=Unknown, ST=Unknown, C=Unknown是否正确? [否]: 是 输入 <tomcat> 的密钥口令 (如果和密钥库口令相同, 按回车): 再次输入新口令: [chengxu@local]
4.修改tomcat的%{CATALINA_HOME}/conf/server.xml,使支持https协议
<Connector port="443" protocol="org.apache.coyote.http11.Http11Protocol" maxThreads="150" SSLEnabled="true" scheme="https" secure="true" clientAuth="false" sslProtocol="TLS" keystoreFile="/Users/chengxu/Shibboleth/tomcat/tomcat.keystore" keystorePass="xxx"/>
5.发布Idp Web Application到Tomcat 8 container
vim %{CATALINA_HOME}/conf/Catalina/localhost/idp.xml
<Context docBase="/opt/shibboleth-idp/war/idp.war" privileged="true" antiResourceLocking="false" swallowOutput="true"/>
4.配置host
vim /etc/host 127.0.0.1 testdomain.com
5.重启tomcat
%{CATALINA_HOME}/bin/catalina.sh stop
%{CATALINA_HOME}/bin/catalina.sh start
6.检测是否服务启动正常
访问https://testdomain/idp/status
或者/opt/shibboleth-idp/bin; ./status.sh
3.2 配置shibboleth连接ldap
编辑修改ldap.properties
vim /opt/shibboleth/conf/ldap.properties idp.authn.LDAP.authenticator = bindSearchAuthenticator idp.authn.LDAP.ldapURL = ldap://ldap.example.it:389 idp.authn.LDAP.useStartTLS = false idp.authn.LDAP.useSSL = false idp.authn.LDAP.baseDN = cn=Users,dc=example,dc=org idp.authn.LDAP.userFilter = (uid={user}) idp.authn.LDAP.bindDN = cn=admin,cn=Users,dc=example,dc=org idp.authn.LDAP.bindDNCredential = ###LDAP ADMIN PASSWORD###
6.修改shibboleth ldap配置
vim /opt/shibboleth/conf/services.xml 把 <value>%{idp.home}/conf/attribute-resolver.xml</value> 改为 <value>%{idp.home}/conf/attribute-resolver-full.xml</value>
vim /opt/shibboleth-idp/conf/attribute-resolver-full.xml 注释掉下列代码,如果已经注释掉了就不动了(有些版本已经注释了) <!-- <dc:StartTLSTrustCredential id="LDAPtoIdPCredential" xsi:type="sec:X509ResourceBacked"> <sec:Certificate>% {idp.attribute.resolver.LDAP.trustCertificates}</sec:Certificate> </dc:StartTLSTrustCredential> -->
重启tomcat
7.获取idp metadata.xml
https://testdomain.com/idp/shibboleth
注意metadata.xml文件中的validUntil属性,如果过期了则修改为未来的某个时间点
4.小结
至此我们完成了Shibboleth与LDAP集成的安装过程
下篇: 实现Shibboleth+Ldap到阿里云的单点登录
来自:https://yq.aliyun.com/articles/350531?tdsourcetag=s_pcqq_aiomsg&do=login&accounttraceid=87b0f203-5d81-4cb7-a986-49615e3962e2&do=login&do=login
在C盘根目录下建立以下批处理文件:
c:
cd C:\Program Files\Microvirt\MEmu
adb start-server
c:
cd C:\Android\Sdk\platform-tools
adb connect 127.0.0.1:21503
cd\
在命令提示符(管理员)下运行它就OK了。
flutter config --android-sdk 自己的android sdk路径Android SDK默认的安装地址为:
C:\Users\Administrator\AppData\Local\Android\SDK
现需要把它搬到 C:\Android\Sdk
操作如下:
1.把C:\Users\Administrator\AppData\Local\Android\SDK剪切复制到C:\Android\Sdk;
2.在FLutter sdk 目录下运行如下命令:
flutter config --android-sdk C:\Android\Sdk
3.在环境变量中把ANDROID_HOME改为C:\Android\Sdk;
重启,这样就OK了。
https://baijiahao.baidu.com/s?id=1630789160989369444&wfr=spider&for=pc
安装后还是无法联网的,需要以下步骤才能联网:
设置--》网络和互联网--》私人DNS -->把自动改为关闭
就能上网了。
===============CentOS 7.6================
1.查看系统时间
查看当前系统时间以及时区
结果是:
Mon Jul 8 09:23:31 UTC 2019
2.更改系统时间时区
timedatectl set-timezone Asia/Shanghai
3.再次查看
结果是:
Mon Jul 8 17:25:28 CST 2019
4.可以重启后查看,防止重启后失效
=======================
https://blog.csdn.net/qq_41855420/article/details/102750895?depth_1-utm_source=distribute.pc_relevant.none-task&utm_source=distribute.pc_relevant.none-task
在这个地方,要把服务里的那几个VM启动,否则DHCP无法安装。
⑧、设置黑苹果Catalina 10.15
系统
https://www.jianshu.com/p/d58dab805ca6
keytool -genkey -v -keystore ./key.jks -keyalg RSA -keysize 2048 -validity 10000 -alias key
apk 输出在:
C:\Users\Administrator\AndroidStudioProjects\flutter_app\build\app\outputs\apk\release
key.properties
storePassword=123456
keyPassword=123456
keyAlias=key
storeFile=C:/Users/Administrator/AndroidStudioProjects/flutter_app/key.jks
build.gradle
def localProperties = new Properties()
def localPropertiesFile = rootProject.file('local.properties')
if (localPropertiesFile.exists()) {
localPropertiesFile.withReader('UTF-8') { reader ->
localProperties.load(reader)
}
}
def flutterRoot = localProperties.getProperty('flutter.sdk')
if (flutterRoot == null) {
throw new GradleException("Flutter SDK not found. Define location with flutter.sdk in the local.properties file.")
}
def flutterVersionCode = localProperties.getProperty('flutter.versionCode')
if (flutterVersionCode == null) {
flutterVersionCode = '1'
}
def flutterVersionName = localProperties.getProperty('flutter.versionName')
if (flutterVersionName == null) {
flutterVersionName = '1.0'
}
apply plugin: 'com.android.application'
apply plugin: 'kotlin-android'
apply from: "$flutterRoot/packages/flutter_tools/gradle/flutter.gradle"
def keystorePropertiesFile = rootProject.file("key.properties")
def keystoreProperties = new Properties()
keystoreProperties.load(new FileInputStream(keystorePropertiesFile))
android {
compileSdkVersion 28
sourceSets {
main.java.srcDirs += 'src/main/kotlin'
}
lintOptions {
disable 'InvalidPackage'
}
defaultConfig {
// TODO: Specify your own unique Application ID (https://developer.android.com/studio/build/application-id.html).
applicationId "com.example.flutter_app"
minSdkVersion 16
targetSdkVersion 28
versionCode flutterVersionCode.toInteger()
versionName flutterVersionName
testInstrumentationRunner "androidx.test.runner.AndroidJUnitRunner"
}
signingConfigs {
release {
keyAlias keystoreProperties['keyAlias']
keyPassword keystoreProperties['keyPassword']
storeFile file(keystoreProperties['storeFile'])
storePassword keystoreProperties['storePassword']
}
}
buildTypes {
release {
// TODO: Add your own signing config for the release build.
// Signing with the debug keys for now, so `flutter run --release` works.
//signingConfig signingConfigs.debug
signingConfig signingConfigs.release
}
}
}
flutter {
source '../..'
}
dependencies {
implementation "org.jetbrains.kotlin:kotlin-stdlib-jdk7:$kotlin_version"
testImplementation 'junit:junit:4.12'
androidTestImplementation 'androidx.test:runner:1.1.1'
androidTestImplementation 'androidx.test.espresso:espresso-core:3.1.1'
}
参见:
https://www.jianshu.com/p/2893f2b52eee
https://www.cnblogs.com/duanzb/p/11188979.html
即是在PATH中增加2个:
C:\Flutter\flutter1.12.13\.pub-cache\bin
C:\Flutter\flutter1.12.13\bin\cache\dart-sdk\bin
打开项目总文件夹运行,不要打开上一级目录运行F:\fluterapp\hellow_horld(项目名)这里打开F:\fluterapp 不要在这里打开
https://blog.csdn.net/qq_31659129/article/details/97244526
解决办法:
修改以下文件
C:\Program Files\nodejs\node_modules\npm\node_modules\node-gyp\src\win_delay_load_hook.c
增加以下代码,到第一个#include前
#ifndef DELAYIMP_INSECURE_WRITABLE_HOOKS#define DELAYIMP_INSECURE_WRITABLE_HOOKS#endif
参考:
https://github.com/nodejs/node-gyp/issues/949
https://github.com/Automattic/node-canvas/issues/619
————————————————
版权声明:本文为CSDN博主「Amatig」的原创文章,遵循CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/cooltigerkin/article/details/51807588
VS2015最高支持14393版本的SDK,之后的从15063起就必须要VS2017,很多人出现VS找不到rc.ex和cl.exe的问题,就是没有安装SDK或安装了VS不支持的SDK版本;这个问题有人在知乎上提问过“如何将独立安装的win10SDK与vs2015建立联系?“
VS2015不完全支持Win10的某些项目编译,比如应用商店应用、1703、1709的驱动程序,但是VS2017太难用了,所以我还是坚持用2015
解决办法:
卸载新版本WinSDK,安装14393版本的SDK
或
卸载VS2015安装VS2017
————————————————
版权声明:本文为CSDN博主「楼顶上的猫」的原创文章,遵循CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/qq_30113467/article/details/100013766
此前我的Ubuntu不是wubi方式安装的,因为听说此方式安装有多种缺陷,于是我选择U盘安装。这时想要卸载Ubuntu了,想到卸载这个也会有些小阻碍,就写下这篇博文表示记录一下Ubuntu的正确卸载方法。
在每次开机时都会有GURB菜单,这表示写入到安装Ubuntu的时候把GURB写入到了MBR,所以卸载Ubuntu前首先需要将MBR重写,去掉Ubuntu的GURB。如果朋友们不进行这一步把Ubuntu强行干掉,会让windows也直接GG。
重写MBR有两种方法:
一、放入Windows的安装盘,进入Windows安装程序,进入恢复控制台,输入命令fixmbr。
二、使用MbrFix工具进行修复。
我选择的是MbrFix,下载地址:http://www.cnitblog.com/Files/CoffeeCat/MbrFix.rar
下载完成后运行命令行,然后进入存放MbrFix.exe的目录下,输入指令MbrFix /drive 0 fixmbr /yes,重启就可以直接进入windows了。
ps:输入命令行提示"function failed.error 5:拒绝访问"如何解决?
找到MbrFix.exe,右击属性,进入兼容性选项卡,勾选"以管理员身份运行此程序",确定退出,然后重新输入指令即可解决。
搞定第一步之后,右键我的电脑进入管理,磁盘管理,如果是自己安装的Ubuntu,应该知道在安装的时候分配了几个分区在此系统上,如果只是双系统,除了Windows下有标注卷名的其余应该都是Ubuntu的分区。右键Ubuntu分区,删除卷,标注蓝条会变成绿条,把几个分区全部删除完成,右键新加卷一步一步完成恢复成为Windows的逻辑分区了。
来自:https://www.cnblogs.com/-Yvan/p/4975326.html
1.把 "Gateway": "/ip4/127.0.0.1/tcp/8080"修改为:"Gateway": "/ip4/0.0.0.0/tcp/8080",这样本机就可以用192.168WEB访问了。
2.把WINDOWS防火墙入站的8080端口打开,这样在局域网就能访问了。
https://blog.csdn.net/qq_25870633/article/details/82027510
在之前的博客中提到解决此问题的方法是进入mysql的命令窗口,执行set global show_compatibility_56=on;
但是该方法只能生效一次,当电脑重启或者mysql服务重启的时候,就得重新再设置一次,下面提供一个永久生效的方法,即不通过上述方法,而是修改mysql的配置文件,找到my.ini的配置文件,在文件的最后添加:show_compatibility_56 = 1 即可。
本人的my.ini的文件路径是:C:\ProgramData\MySQL\MySQL Server 5.7\my.ini
————————————————
版权声明:本文为CSDN博主「让爱远行2015」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/u011065164/article/details/53393348
cnpm install -g solc@0.4.22
https://remix.ethereum.org/
http://remix.hubwiz.com/
https://ethereum.github.io/
最新内容会更新在主站深入浅出区块链社区
原文链接:Web3与智能合约交互实战
写在前面
在最初学习以太坊的时候,很多人都是自己创建以太坊节点后,使用geth与之交互。这种使用命令行交互的方法虽然让很多程序员感到兴奋(黑客帝国的既视感?),但不可能指望普通用户通过命令行使用Dapp。因此,我们需要一种友好的方式(比如一个web页面)来与智能合约交互,于是问题的答案就是web3.js
。
Web3.js
Web3.js是以太坊官方的Javascript API,可以帮助智能合约开发者使用HTTP或者IPC与本地的或者远程的以太坊节点交互。实际上就是一个库的集合,主要包括下面几个库:
web3-eth
用来与以太坊区块链和智能合约交互web3-shh
用来控制whisper协议与p2p通信以及广播web3-bzz
用来与swarm协议交互web3-utils
包含了一些Dapp开发有用的功能
Web3与geth通信使用的是 JSON-RPC ,这是一种轻量级的RPC(Remote Procedure Call)协议,整个通信的模型可以抽象为下图。
搭建测试链
在开发初期,我们并没有必要使用真实的公链,为了开发效率,一般选择在本地搭建测试链。在本文我们选择的Ganache(在此之前使用的是testrpc,Ganache属于它的升级版),一个图形化测试软件(也有命令行版本),可以一键在本地搭建以太坊区块链测试环境,并且将区块链的状态通过图形界面显示出来,Ganache的运行界面如下图所示。
从图中可以看到Ganache会默认创建10个账户,监听地址是http://127.0.0.1:7545
,可以实时看到Current Block
、Gas Price
、Gas Limit
等信息。
创建智能合约
目前以太坊官方全力支持的智能合约开发环境是Remix IDE,我们在合约编辑页面编写如下代码:
pragma solidity ^0.4.21; contract InfoContract { string fName; uint age; function setInfo(string _fName, uint _age) public { fName = _fName; age = _age; } function getInfo() public constant returns (string, uint) { return (fName, age); } }
代码很简单,就是简单的给name
和age
变量赋值与读取,接下来切换到 run 的 tab 下,将Environment
切换成Web3 Provider
,并输入我们的测试链的地址http://127.0.0.1:7545
,这里对这三个选项做一简单说明:
Javascript VM
:简单的Javascript虚拟机环境,纯粹练习智能合约编写的时候可以选择Injected Web3
:连接到嵌入到页面的Web3,比如连接到MetaMaskWeb3 Provider
:连接到自定义的节点,如私有的测试网络。
如果连接成功,那么在下面的Account
的选项会默认选择 Ganache 创建的第一个账户地址。接下来我们点击Create
就会将我们的智能合约部署到我们的测试网中。接下来 Remix 的页面不要关闭,在后面编写前端代码时还要用到合约的地址以及ABI
信息。
安装Web3
在这之前,先在终端创建我们的项目:
> mkdir info > cd info
接下来使用 node.js 的包管理工具 npm 初始化项目,创建package.json
文件,其中保存了项目需要的相关依赖环境。
> npm init
一路按回车直到项目创建完成。最后,运行下面命令安装web.js:
> npm install web3
注意: 在实际安装过程中我发现web3在安装完成后并没有 /node_modules/web3/dist/we3.min.js
文件,这个问题在 issue#1041中有体现,但官方好像一直没解决。不过可以在这里下载所需的文件,解压后将dist
文件夹的内容拷贝到 /node_modules/web3
路径下。
创建 UI
在项目目录下创建index.html
,在这里我们将创建基础的 UI,功能包括name
和age
的输入框,以及一个按钮,这些将通过 jQuery 实现:
<!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8"> <meta name="viewport" content="width=device-width, initial-scale=1.0"> <meta http-equiv="X-UA-Compatible" content="ie=edge"> <title>Document</title> <link rel="stylesheet" type="text/css" href="main.css"> <script src="./node_modules/web3/dist/web3.min.js"></script> </head> <body> <div class="container"> <h1>Info Contract</h1> <h2 id="info"></h2> <label for="name" class="col-lg-2 control-label">Name</label> <input id="name" type="text"> <label for="name" class="col-lg-2 control-label">Age</label> <input id="age" type="text"> <button id="button">Update Info</button> </div> <script src="https://code.jquery.com/jquery-3.2.1.slim.min.js"></script> <script> // Our future code here.. </script> </body> </html>
接下来需要编写main.css
文件设定基本的样式:
body { background-color:#F0F0F0; padding: 2em; font-family: 'Raleway','Source Sans Pro', 'Arial'; } .container { width: 50%; margin: 0 auto; } label { display:block; margin-bottom:10px; } input { padding:10px; width: 50%; margin-bottom: 1em; } button { margin: 2em 0; padding: 1em 4em; display:block; } #info { padding:1em; background-color:#fff; margin: 1em 0; }
使用Web3与智能合约交互
UI 创建好之后,在<script>
标签中间编写web.js
的代码与智能合约交互。首先创建web3
实例,并与我们的测试环境连接:
<script> if (typeof web3 !== 'undefined') { web3 = new Web3(web3.currentProvider); } else { // set the provider you want from Web3.providers web3 = new Web3(new Web3.providers.HttpProvider("http://localhost:7545")); } </script>
这段代码是web3.js Github提供的样例,意思是如果web3
已经被定义,那么就可以直接当作我们的 provider 使用。如果没有定义,则我们手动指定 provider。
这里可能会存在疑问:为什么 web3 会被事先定义呢?实际上,如果你使用类似 MetaMask(一个 Chrome 上的插件,迷你型以太坊钱包)这样的软件,provider 就会被自动植入。
在上面代码的基础上,接下来设置默认的以太坊账户:
web3.eth.defaultAccount = web3.eth.accounts[0];
在上文中我们使用 Ganache 已经创建了 10 个账户了,这里我们选择第一个账户当作默认账户。
接下来需要让我们的web3
知道我们的合约是什么样的,这里需要用到合约的 ABI(Application Binary Interface)。ABI
可以使我们调用合约的函数,并且从合约中获取数据。
在上文中我们已经在 Remix 中创建了我们的合约,这时重新回到 Remix,在 Compile 的 tab 下我们点击Details
出现的页面中我们可以拷贝合约的ABI
,如下图所示。
将其复制到代码中:
var infoContract = web3.eth.contract(PASTE ABI HERE!);
接下来转到 run 的tab,拷贝合约的地址,将其复制到下面的代码中:
var info = InfoContract.at('PASTE CONTRACT ADDRESS HERE');
完成这些我们就可以调用合约中的函数了,下面我们使用 jQuery 与我们的合约进行交互:
info.getInfo(function(error, result){ if(!error) { $("#info").html(result[0]+' ('+result[1]+' years old)'); console.log(result); } else console.error(error); }); $("#button").click(function() { info.setInfo($("#name").val(), $("#age").val()); });
以上的代码就简单地实现了对合约中两个函数的调用,分别读取和显示name
和age
变量。
到此我们就完成了全部的代码,完整代码可以在 InfoContract 中找到。在浏览器中打开index.html
测试效果如下图(输入名字和年龄后刷新)。
本文的作者是盖盖,他的微信公众号: chainlab
参考文献
☛ 深入浅出区块链 - 系统学习区块链,打造最好的区块链技术博客。
https://blog.csdn.net/xiaomu_347/article/details/80729892
GitHub 在开源世界的受欢迎程度自不必多言。再加上前阵子,GitHub 官方又搞了个大新闻:私有仓库改为免费使用,这在原来可是需要真金白银的买的。可见微软收购后,依然没有改变 GitHub 的定位,甚至还更进一步。
花开两朵,各表一枝。我们今天想要聊的并不是 GitHub 多么厉害,而是你怎么能把 GitHub 用得很厉害。
你在 GitHub 上搜索代码时,是怎么样操作的呢?是不是就像这样,直接在搜索框里输入要检索的内容,然后不断在列表里翻页找自己需要的内容?
或者是简单筛选下,在左侧加个语言的过滤项。
再或者改变一下列表的排序方式
这就是「全部」了吗?
一般的系统检索功能,都会有一个「高级搜索」的功能。需要在另外的界面里展开,进行二次搜索之类的。 GitHub 有没有类似的呢?
答案是肯定的。做为一个为万千工程师提供服务的网站,不仅要有,而且还要技术范儿。
如果我们自己开发一个类似的应用,会怎样实现呢?
带着思路,咱们一起来看看,GitHub 是怎样做的。
这里我们假设正要学习 Spring Cloud,要找一个 Spring Cloud 的 Demo 参考练手。
1. 明确搜索仓库标题、仓库描述、README
GitHub 提供了便捷的搜索方式,可以限定只搜索仓库的标题、或者描述、README等。
以Spring Cloud 为例,一般一个仓库,大概是这样的
其中,红色箭头指的两个地方,分别是仓库的名称和描述。咱们可以直接限定关键字只查特定的地方。比如咱们只想查找仓库名称包含 spring cloud 的仓库,可以使用语法
in:name 关键词
如果想查找描述的内容,可以使用这样的方式:
in:descripton 关键词
这里就是搜索上面项目描述的内容。
一般项目,都会有个README文件,如果要查该文件包含特定关键词的话,我想你猜到了
in:readme 关键词
2. 明确搜索 star、fork 数大于多少的
一个项目 star 数的多少,一般代表该项目有受欢迎程度。虽然现在也有垃圾项目刷 star ,但毕竟是少数, star 依然是个不错的衡量标准。
stars:> 数字 关键字。
比如咱们要找 star 数大于 3000 的Spring Cloud 仓库,就可以这样
stars:>3000 spring cloud
如果不加 >= 的话,是要精确找 star 数等于具体数字的,这个一般有点困难。
如果要找在指定数字区间的话,使用
stars: 10..20 关键词
fork 数同理,将上面的 stars 换成fork,其它语法相同
3. 明确搜索仓库大小的
比如你只想看个简单的 Demo,不想找特别复杂的且占用磁盘空间较多的,可以在搜索的时候直接限定仓库的size。
使用方式:
size:>=5000 关键词
这里注意下,这个数字代表K, 5000代表着5M。
4. 明确仓库是否还在更新维护
我们在确认是否要使用一些开源产品,框架的时候,是否继续维护是很重要的一点。如果已经过时没人维护的东西,踩了坑就不好办了。而在 GitHub 上找项目的时候,不再需要每个都点到项目里看看最近 push 的时间,直接在搜索框即可完成。
元旦刚过,比如咱们要找临近年底依然在勤快更新的项目,就可以直接指定更新时间在哪个时间前或后的
通过这样一条搜索pushed:>2019-01-03 spring cloud
咱们就找到了1月3号之后,还在更新的项目。
你是想找指定时间之前或之后创建的仓库也是可以的,把pushed改成created就行。
5. 明确搜索仓库的 LICENSE
咱们经常使用开源软件,一定都知道,开源软件也是分不同的「门派」不同的LICENSE。开源不等于一切免费,不同的许可证要求也大不相同。 2018年就出现了 Facebook 修改 React 的许可协议导致各个公司纷纷修改自己的代码,寻找替换的框架。
例如咱们要找协议是最为宽松的 Apache License 2 的代码,可以这样
license:apache-2.0 spring cloud
其它协议就把 apache-2.0 替换一下即可,比如换成mit之类的。
6. 明确搜索仓库的语言
比如咱们就找 Java 的库, 除了像上面在左侧点击选择之外,还可以在搜索中过滤。像这样:
language:java 关键词
7.明确搜索某个人或组织的仓库
比如咱们想在 GitHub 上找一下某个大神是不是提交了新的功能,就可以指定其名称后搜索,例如咱们看下 Josh Long 有没有提交新的 Spring Cloud 的代码,可以这样使用
user:joshlong
组合使用一下,把 Java 项目过滤出来,多个查询之间「空格」分隔即可。
user:joshlong language:java
找某个组织的代码话,可以这样:
org:spring-cloud
就可以列出具体org 的仓库。
作者:西安北大青鸟
链接:https://www.jianshu.com/p/74ae16db62af
来源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
https://blog.csdn.net/Hanani_Jia/article/details/77950594源博客地址
首先,我先对GitHub来一个简单的介绍,GitHub有一个很强大的功能就是,你在服务器上边可以创建一个库(稍后会介绍怎么创建),写代码是一件很重的任务,尤其是很多人完成一个很大的项目的时候,就十分的复杂,一群人一起来写某个项目,大家完成的时间,完成的进度都是不相同的,你写一点我写一点,甚至可能你今天写的出现了错误,影响到了我昨天写的代码,最后怎么才能将大家的代码轻松的汇总起来,又怎么在汇总所有人的代码之后发现错误等等一系列问题。这样我们就用到了GitHub这个软件。我们在GitHub服务器上有一个主仓库,这里用来储存你的所有代码,如果不付费的话是所有人都可以看的,如果你不想让别人看到你的代码,可以选择付费仓库。我们创建了主仓库之后,就可以在电脑上创建分支,之后你就可以在电脑上完成自己的代码,写完之后直接同步在电脑的分支,当你认为可以上传的自己的主仓库时,就可以申请更新,当通过审核的时候,你代码就出现在了自己的主仓库中,这样全世界的程序员都可以查看你的代码。全世界现在已经有300万的注册用户,甚至还有一些相当知名的开源项目也在其中公布代码。在GitHub上你可以看到很多计算机领域的精英所分享的自己的代码。这是GitHub的两个主要优点,适合团队协作,以及下载其他优秀者的代码。
今天,GitHub已是:一个拥有143万开发者的社区。其中不乏Linux发明者Torvalds这样的顶级黑客,以及Rails创始人DHH这样的年轻极客。
· 这个星球上最流行的开源托管服务。目前已托管431万git项目,不仅越来越多知名开源项目迁入GitHub,比如Ruby on Rails、jQuery、Ruby、Erlang/OTP;近三年流行的开源库往往在GitHub首发,例如:BootStrap、Node.js、CoffeScript等。alexa全球排名414的网站。
https://github.com/ 这是GitHub的官方网站,在官网上可以注册属于自己的GitHub账号,网上是全英文的,对于英语不好的同学建议使用谷歌浏览器,谷歌浏览器可以翻译网页变为中文使用起来十分方便。
通过简单的步骤之后你就会有一个属于自己的GitHub账号。再简单注册完成之后会需要验证你所输入的邮箱才能正常使用你的GitHub。
在注册完成之后,完成一些简单的设置之后,你需要创建一个属于自己的库
在登陆自己的GitHub账号之后,在网页右上角的小加号是用来创建自己的库的按钮,之后的步骤将网页翻译成中文之后,按提示进行创建自己的库即可。
第一个框是自己为自己的库起一个名字,第二个框是自己对库的一个简单介绍
在创建完成自己的库之后,下面就要让自己的电脑克隆一个自己所创建的库,方面自己电脑上的代码同步到GitHub你所创建的库当中。
为了实现,就需要安装一个软件,Git Bash。
下面我就介绍一下这个软件的安装,以及简单的配置。
git-scm.com 首先进入GitHub官网,下载适合自己电脑的版本
下载完安装包之后运行
在安装过程中直接默认选项即可。
在对git bash进行配置的时候大多数新手都是一头雾水,下面我对配置的每一步就会有详细的记录。代码我也是从网上和学长那边要来的。
我第一次打开软件后看到这个界面也是一脸懵逼的,然后通过查阅了各种各样的资料之后才有了一些思路。
首先要在本地创建一个ssh key 这个的目的就是你现在需要在你电脑上获得一个密匙,就是咱们平时的验证码一样的东西,获取之后,在你的GitHub账号里边输入之后,你的电脑就和你的GitHub账号联系在一起了,这样以后就可以十分方便的通过Git bash 随时上传你的代码。下边介绍一下如果获得这个钥匙,又是如何输入到你的GitHub里边的呢。
很多人第一次打开这个GitHub的时候一脸懵逼,认为这是什么。对于一个新手来说看到这个是没有任何思路,没有任何想法的。
这一栏 开始是你的计算机的名字在我这里就是Hanani @后边的内容是你的计算机型号,很多时候有的人打开之后@后边是乱码,这个时候也不要在意,因为有些电脑型号是中文的,可能在显示的时候出现了问题,不影响你后期的操作。
接下来,就要开始获取属于你自己的密匙。在git bash中所有功能都是通过简单的一些代码来实现的。获取密匙的时候需要输入
$ ssh-keygen -t rsa -C "your_email@youremail.com"
需要输入这个代码,引号内需要改成你在注册GitHub的时候绑定的邮箱账号。之后会有一些简单的让你确认的操作,之后让你会提示操作路径、密码等等,一般情况下就直接按回车一路过就可以。
如果之后你出现了这个界面之后,就说明你的密匙已经成功创建了。现在你就需要去他刚刚显示的存储位置打开它,把其中的内容复制出来。
在.ssh这个文件夹中
之后你会看到这些内容,有的人会在id_rsa后边带有一个pub,之前看网上教程需要找到带pub的文件,因为我在生成后没有带.pub的文件,怀着忐忑的心打开id_rsa后发现这里边的密匙也是可以使用的。打开id_rsa的时候需要用记事本的方式打开。
ssh-rsa AAAAB3NzaC1yc2EAAAADAQABAAABAQDIskXqZF3SSFtACK6zoNGJabikTBC3kig6+4j4dCq1tswhA9YkuJCi0WpRmGYWBQ67dyT2or7RedFZlULLZN3nL6AWlo5V2jRXw4WQxCon2rU1p122wmiTzqYOfsykjwullWV4bYcZU4n77A4/9WwlSqZCpEbcdwV8IMkvwfJUInSWqTvmYMcKTWu8yad5DZ2v7LBWfgsL/Tfx7aEB8UjDNJ6SPw30Yijy+62YrftYGgbuwoiL9hDNGO2LfjgOkglHTBJaZe31uQLLWc5uCzd+7Dgh7RaKMmeuz2Uv7yqm/IEU9jH8cPMR9YRPIhmzg38G2s9ILn27QqW9j1hrFY1V 15229020556@163.com
这就是我所获取的密匙,打开之后很长的一段,不要惊讶,没有问题,这就是你所需要的密匙。
现在你就需要登录到你的GitHub上边添加这个密匙,
打开你GitHub的设置界面,找到SSH and GPG keys这个选项之后,在网页右上角有一个添加新的SSH keys 点击
这里的title 是让你给你的密匙起一个名字,根据个人喜好,什么名字都可以,然后把你在刚刚文件中复制的密匙,填写在下边的大框里。保存即可。
之后你就可以回到你的Git bash上边了
然后输入上边的代码,来检查是否成功绑定。第一次绑定的时候输入上边的代码之后会提示是否continue,在输入yes后如果出现了:You've successfully authenticated, but GitHub does not provide shell access 。那就说明,已经成功连上了GitHub。接下来还需要简单的设置一些东西。
输入上边的代码,name最好和GitHub上边的一样,email是一定要是注册GitHub的那个邮箱地址
这两个的顺序可以颠倒,没有固定的顺序。
下面就要将你的库克隆下来到本地电脑中,方便以后进行上传代码。
在库创建完成之后 会有一个网址出现在网页中。
个人习惯将自己的文件储存在d盘之中,所以你先需要将git bash定位在d盘中
在git bash中输入 cd /D 注意盘名字一定要是大写。如不输入这个语句 不给git bash定位的话,默认的本地文件位置是在c盘中。
输入之后会出现/D说明定位成功。
之后输入
git clone后边的网址就是你创建库成功之后的网址
之后打开我所定位的D盘
可以看到,D盘中已经有以我的库名所创建的文件夹了。
打开这个文件夹,然后在其中创建一个任意格式,任意名称的文件。
之后重新定位git 把书 的位置,定位在你库的文件夹。
之后输入ls语句 ls的作用是查看你目前所定位的文件夹中的文件,现在可以看出来,我刚刚所创建的test文件已经出现了。
然后输入 git add test.txt
之后输入然后git commit -m "cc" 引号内的内容可以随意改动,这个语句的意思是 给你刚刚上传的文件一个备注,方便查找记忆而已
输入之后出现以上情况,然后在输入git push origin master 之后会出现一个
界面,在这里登陆你之前注册的GitHub账号之后点击login。
如果之后出现这种情况的话,就是登陆失败了,这时候你就需要输入你GitHub的账号名称
输入之后会出现这个界面,然后再次输入你的GitHub密码。
出现类似界面,你就可以欢呼了,代表你成功了。
现在打开你的GitHub网站,找到你创建的库
发现今天的格子已经绿了,说明你已经上传了你刚刚所创建的文件。
再之后,你只需要将你的代码,放到库的对应的文件夹中,然后使用 先CD到你库里面,再git add 、git commit -m " " 、最后git push origin master,将你的代码提交就可以了。
同样我感觉网页版的github更适合新手小白,https://blog.csdn.net/hanani_jia/article/details/79855429 这是我写的一篇网页版github的简单操作,需要的可以看一下。
if(!deployed.address) {
^
TypeError: Cannot read property 'address' of undefined
解决办法:调整gas的值就好了。
http://www.360doc.com/content/18/1014/17/16619343_794677023.shtml
https://blog.csdn.net/luoye4321/article/details/82531212
https://blog.csdn.net/weixin_34055787/article/details/89733910
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/yezishuang/article/details/91489354
1.Visual Studio 2015 专业版和企业版下载
https://www.cnblogs.com/bwlluck/p/5514424.html
https://www.cnblogs.com/wgscd/p/4671374.html
2.Visual Studio 2013
https://www.cnblogs.com/abeam/p/6781006.html
3.Visual Studio 2017
https://www.cnblogs.com/jian-pan/p/6942635.html
Microsoft Visual Studio Enterprise 2017 企业版
KEY:NJVYC-BMHX2-G77MM-4XJMR-6Q8QF
Microsoft Visual Studio Professional 2017 专业版
KEY:KBJFW-NXHK6-W4WJM-CRMQB-G3CDH
4.Visual Studio 2019
https://www.cnblogs.com/zengxiangzhan/p/vs2015.html
https://visualstudio.microsoft.com/zh-hans/downloads/ (下载地址)
Visual Studio 2019 Enterprise
BF8Y8-GN2QH-T84XB-QVY3B-RC4DF
Visual Studio 2019 Professional
NYWVH-HT4XC-R2WYW-9Y3CM-X4V3Y
https://blog.csdn.net/qq_27317475/article/details/80894593
以前的genesis.json的文件差不多是这样的:
{
"config": {
"chainId": 10,
"homesteadBlock": 0,
"eip155Block": 0,
"eip158Block": 0
},
"alloc" : {},
"coinbase" : "0x0000000000000000000000000000000000000000",
"difficulty" : "0x00000002",
"extraData" : "",
"gasLimit" : "0x2fefd8",
"nonce" : "0x0000000000000042",
"mixhash" : "0x0000000000000000000000000000000000000000000000000000000000000000",
"parentHash" : "0x0000000000000000000000000000000000000000000000000000000000000000",
"timestamp" : "0x00"
}
用这个创世块的描述文件初始化时,出现错误:
Fatal: Failed to write genesis block: unsupported fork ordering: eip150Block not enabled, but eip155Block enabled at 0
百度吧,没有一个解决办法。
后来用Puppeth命令创建json文件,并做了修改,如下所示:
{
"config": {
"chainId": 666,
"homesteadBlock": 0,
"eip150Block": 0,
"eip150Hash": "0x0000000000000000000000000000000000000000000000000000000000000000",
"eip155Block": 0,
"eip158Block": 0,
"byzantiumBlock": 0,
"constantinopleBlock": 0,
"petersburgBlock": 0,
"istanbulBlock": 0,
"ethash": {}
},
"nonce": "0x0",
"timestamp": "0x5ddf8f3e",
"extraData": "0x0000000000000000000000000000000000000000000000000000000000000000",
"gasLimit": "0x47b760",
"difficulty": "0x00002",
"mixHash": "0x0000000000000000000000000000000000000000000000000000000000000000",
"coinbase": "0x0000000000000000000000000000000000000000",
"alloc": { }
},
"number": "0x0",
"gasUsed": "0x0",
"parentHash": "0x0000000000000000000000000000000000000000000000000000000000000000"
}
初始化:
geth --identity "MyEth" --rpc --rpcport "8545" --rpccorsdomain "*" --datadir gethdata --port "30303" --nodiscover --rpcapi "db,eth,net,personal,web3" --networkid 1999 init genesis.json
控制台:
geth --identity "MyEth" --rpc --rpcport "8545" --rpccorsdomain "*" --datadir gethdata --port "30303" --nodiscover --rpcapi "db,eth,net,personal,web3" --networkid 1999 --dev.period 1 console
建立用户:
>personal.newAccount();
挖矿:
miner.start();
终于顺利挖到了人生第一桶金。
第一步 安装geth
下载地址:https://ethereum.github.io/go-ethereum/downloads/
点击安装勾选development tools
第二步 创建您的帐户
在当前文件夹下创建node1文件夹
创建一个账户(也称为钱包)
Devnet $ geth --datadir node1/ account new
Your new account is locked with a password. Please give a password. Do not forget this password.
Passphrase: 输入你的密码
Repeat passphrase: 确认你的密码
Address: {08a58f09194e403d02a1928a7bf78646cfc260b0}
第三步 geth命令创建您的Genesis文件
生成的文件是用于初始化区块链的文件。第一个块叫做创世块,是根据genesis.json文件中的参数生成的。
Geth安装后目录下有很多可执行文件如puppeth或bootnode。你可以在Geth github上找到完整的列表。
Puppeth可以创建创世区块的json文件。
开始使用Puppeth:
1、win键 + r 进入cmd命令行,进入到安装geth的文件夹执行 puppeth 然后顺序执行下面操作
2、Please specify a network name to administer (no spaces, please)
> devnet
(这里随便填写一个网络管理名称即可,如有需要后面可以通过--network重新设置)
What would you like to do? (default = stats)
1. Show network stats
2. Configure new genesis
3. Track new remote server
4. Deploy network components
> 2
(这里选择2,回车,配置新的创世区块)
3、Which consensus engine to use? (default = clique)
1. Ethash - proof-of-work
2. Clique - proof-of-authorit
> 1
(这里选择pow共识机制)
4、Which accounts should be pre-funded? (advisable at least one)
> 0x1234567890123456789012345678901234567890
(这个是设置预分配以太坊的账户,建议设置一个有私钥的地址可以后面测试使用,设置好后再按一次回车)
5、Specify your chain/network ID if you want an explicit one (default = random)
> 666
(这里就是链的chainId,可以随意输入也可以不输直接回车默认随机数字)
6、What would you like to do? (default = stats)
- Show network stats
- Manage existing genesis
- Track new remote server
- Deploy network components
> 2
(管理已拥有的创世块)
7、 1. Modify existing fork rules
2. Export genesis configuration
3. Remove genesis configuration
> 2
(选择导出创世配置)
8、Which file to save the genesis into? (default = devnet.json)
> ./genesis.json
(导出的路径及文件名)
OK,到这里创世json文件创建完成了
第四步 geth命令初始化节点
现在我们有了这个genesis.json文件,可以初始化创世块了!
进入到geth安装文件夹下执行
geth --datadir node1/ init genesis.json
第五步 bootnode命令操作
bootnode唯一的目的是帮助节点发现彼此(记住,以太坊区块链是一个对等网络)
初始化 bootnode
bootnode -genkey boot.Key
启动bootnode服务
bootnode -nodekey boot.key -addr:30310
随意使用任何您喜欢的端口,但请避免使用主流端口(例如HTTP)。30303用于公共以太坊网络。
第六步 geth命令启动节点
geth --datadir .\node1\ --syncmode 'full' --port 30311 --rpc --rpcaddr '127.0.0.1' --rpcport 8501 --rpcapi 'personal,db,eth,net,web3,txpool,miner' --bootnodes 'enode://ca88962dbcc8eb0c7587789866f21db68cdf32ad1ea890fe0d9f8fe010f7e9afe2e6a88d5c9d418be61a10b8a31b1e7c55213bb426dab91596ae36bd7d559333@127.0.0.1:30310' --networkid 666
参数解释:
--syncmode 'full' 有助于防止错误丢弃错误的传播块。
--port 是node1的端口
--rpcapi 允许RPC调用的模块
--bootnodes 要连接的bootnode
--networkId genesis.json文件中的chainId
第七步 与您的节点进行交互
通过RPC方式
$ cd devnet
devnet$ geth attach 'http://localhost:8501'
Welcome to the Geth JavaScript console!
instance: Geth/v1.7.3-stable-4bb3c89d/linux-amd64/go1.9
coinbase: 0x87366ef81db496edd0ea2055ca605e8686eec1e6
at block: 945 (Sat, 10 Feb 2018 21:16:14 CET)
modules: eth:1.0 miner:1.0 net:1.0 personal:1.0 rpc:1.0 txpool:1.0 web3:1.0
使用Geth控制台
>net.version
"1515"
> eth.blockNumber
1910
> eth.coinbase
"0x87366ef81db496edd0ea2055ca605e8686eec1e6"
> eth.sendTransaction({'from':eth.coinbase, 'to':'0x08a58f09194e403d02a1928a7bf78646cfc260b0', 'value':web3.toWei(3, 'ether')})
"0x299a99baa1b39bdee5f02e3c660e19e744f81c2e886b5fc24aa83f92fe100d3f"
>eth.getTransactionReceipt("0x299a99baa1b39bdee5f02e3c660e19e744f81c2e886b5fc24aa83f92fe100d3f")
{
blockHash: "0x212fb593980bd42fcaf3f6d1e6db2dd86d3764df8cac2d90408f481ae7830de8",
blockNumber: 2079,
contractAddress: null,
cumulativeGasUsed: 21000,
from: "0x87366ef81db496edd0ea2055ca605e8686eec1e6",
gasUsed: 21000,
logs: [],
logsBloom: "0x00000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000",
status: "0x1",
to: "0x08a58f09194e403d02a1928a7bf78646cfc260b0",
transactionHash: "0x299a99baa1b39bdee5f02e3c660e19e744f81c2e886b5fc24aa83f92fe100d3f",
transactionIndex: 0
}
> exit
(退出)
来自:https://www.haowenbo.com/articles/2019/07/24/1563963176492.html
有了npm 我们能够简单的一段代码就下载我们需要的包,但是包是不断更新的,
所以我们要关注包的版本信息;
现在,假设我们需要 jquery ,但是jquery现在有很多版本,我们如何通过npm查看呢?
要知道,现在的jquery包在npm服务器的上,我们使用下面的命令查看:
第一种方式:使用npm view jquery versions
这种方式可以查看npm服务器上所有的jquery版本信息;
第二种方式:使用npm view jquery version
这种方式只能查看jquery的最新的版本是哪一个;
第三种方式:使用npm info jquery
这种方式和第一种类似,也可以查看jquery所有的版本,
但是能查出更多的关于jquery的信息;
假设现在我们已经成功下载了jquery,过了一段时间,我忘记了下载的jquery的版本信息,
这个时候,我们就需要查看本地下载的jquery版本信息,怎么做呢?
第一种方式:npm ls jquery 即可(查看本地安装的jQuery),下面我的本地没有安装jquery,
所以返回empty的结果;
第二种方式:npm ls jquery -g (查看全局安装的jquery)
总结:上面我们了解了如何通过npm 来查看我们需要的包的版本信息,
既可以查看远端npm 服务器上的,也可以查看本地的;
————————————————
版权声明:本文为CSDN博主「cvper」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/cvper/article/details/79543262
1.在你想更改的目录下新建两个文件夹:node_global 和 node_cache
2.启动cmd依次执行以下两条命令
npm config set prefix "XXX\XXX\node_global"
npm config set cache "XXX\XXX\node_cache"
路径均为绝对路径
3.更改环境变量,计算机右击 --> 属性 --> 高级系统设置 --> 环境变量
在下边的系统变量里新建一条记录,变量名为NODE_PATH 值为XXX\XXX\node_global\mode_modules
在上边的环境变量,更改PATH的值为XXX\XXX\node_global\
(路径为刚才第二步中node_global文件夹的绝对路径)
作者:招猫逗狗追兔子
链接:https://www.jianshu.com/p/70ac7d1a3300
来源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
过去一年的热门话题没有什么比区块链技术更火了,但这里面有太多被神话、误解的地方,本文就详细从技术层面、极客思维方式(哲学)、社会学和经济学等多个维度的分析,来洞悉区块链技术的背后真相。
下笔之前我几乎看过了所有主流媒体上的各种区块链文章,但我觉得没有一篇写的通俗易懂又全面。本文以论文的方式来阐述,虽然较长(可能阅读要花15分钟以上),不过看完后基本就能明白区块链怎么回事,特别是对到底是不是应该去投资虚拟货币会有更清晰的认识。
01 区块链技术分析
本节以比特币为例来说明区块链技术,如果你对技术不感兴趣,直接跳到02章节继续阅读,只需要知道结论:区块链就是用来实现一个虚拟货币记帐本,拥有比特币就是在这个帐本里面拥有区块里面的若干条数据记录。
1.1 问题
现在的区块链可能出了很多衍生的所谓新技术架构,但最终还是离不开那个不可修改的区块结构设计,所以这一节就以比特币来说明这些底层技术架构。看完这节,至少你能够解决以下疑惑:
用普通话和别人讲清楚比特币的底层技术架构是什么?区块链是一种最近才被发明出来的新技术吗?
挖矿是怎么一回事?
比特币的交易过程如何?
比特币钱包和比特币是什么关系?
1.2 计算机不是前沿科学
这有一个打假重要法则,鼓吹任何形式的单纯的计算机技术多么神奇的文章,都要打一个大大的问号。
现在所有计算机都是图灵机,而图灵提出图灵机的论文都快100来年了。计算机领域不是所谓前沿科学,而是一种能大幅提高人们工作效率的工具。所以在信息领域,把从业人员也称为软件工程师、硬件工程师、IOS开发工程师和测试工程师等等。
目前区块链技术和人工智能这二项技术已经被专家们吹到天上去了,我今天就先把区块链这层皮高科技的皮给扒了,以后有机会我再扒人工智能的。
其实不管哪种计算机领域的技术都由二样东西组成:数据 和 算法。
就拿人工智能来说,其实就是统计学在计算机的应用,吹的神乎其神的阿发狗在原理上其实就是蒙特卡洛树 + 基于贝叶斯网络的DeepMind,不过DeepMind取了个很牛的名字叫神经网络。
当然知道原理和能做出来是完全不一样的,和很多工程建设一样,需要对应的很多基础平台和优秀的工程师,但归根结底是一个工程问题,不是科学问题。
举这个例子只是想说明,没有必要去神话一项软件技术,计算机领域和很多传统的行业一样都是工程问题,甚至可能在工程管理水平上面还不如高铁和大型桥梁建设。
1.3 比特币的数据结构
比特币底层数据结构非常简单,是只要学过一点点计算机的人都懂的链表,特殊在用算法实现了不可修改只能往后追加。块与块之前就是链表结构,块内部是一个特殊的二叉树(Merlin Tree)结构,存了交易的流水信息。至于每一块里面的具体数据结构细节非专业人员都不要去了解,只要知道想要修改区块的数据非常的难,因为中本聪设计的非常巧妙,想要修改块的内容,要将从此块之后所有的内容全部进行修改。
至于如何做是如何做到的,防止被修改,我在下一节的算法中会详细介绍。
(区块链数据结构还有NextHash没有在图上画出来)
看到这个表结构,如果你产生一个疑问,链条总归要有开始吧?这个问题非常好,我开始也产生过这个问题。中本聪的解决方案是在程序内部内置了一个创世块,中本聪本人就是创造比特币的上帝,然后启动后只要还有一台计算机在运行这个程序,块的生成就不会结束。
还有另一个分布式数据保存特性,也让修改数据变得几乎不可能,因为这个数据不光存在某一个人的机器上的,保存在很多台的机器上,这个应该成为了比特币故事最大的亮点。
但其实物极必反,在选择了开放和安全外,必然牺牲效率。因为在比特币里面不能直接查询余额的,你只能顺着链条从头开始查找所有交易记录,然后再进行加减计算,得到你当前的余额,这就让比特币的效率不可能高。
只要知道区块ID,很多网站都是可以查对应区块的信息的,因为数据是公开的吗。具体我查了一下,btc.com这个矿池其中一个ID的余额,不少有1534呢。
https://blockchain.info/address/1C1mCxRukix1KfegAY5zQQJV7samAciZpv
1.4 基于区块链的文本编辑器
这里用一个比喻就能讲明白这个结构的特点了,好比A君用Word在写一份文档,每输入的一个字都要同步给P2P网络上的所有结点,增加也好删除也好都要上传,然后文章的最终稿是不直接保存的,就相当不能直接查询余额。要得到A君的文章也很简单,把A君所有的操作全部找出来执行一次就是最终的结果了。
网络上当然同时也有B君,C君在输入,还是那个链式结构,按先后顺序按:谁操作 + 操作内容,依次首尾相连串好。如果你想做区块链创业,用这个区块链的文本编辑器写个计划书,制作一个区块链编辑器,将作者的写作过程全程记录,说不定也能搞到融资,各位随意拿走不用算我发明。
当然比特币的区块链是虚拟币交易,显然不能是个人单独行为,得按交易的形式出现,理解也简单,就是被执行的主体是多个对象,按交易规则来进行就可以,这个我放到交易里面来详细说明。
那区块链是如何保证安全的呢?这就要看下一小节的算法部分。
1.5 算法
用到的算法也没有特别高深的算法,就二个算法:椭圆曲线加密算法和哈希算法。这二个算法一直在互联网上被广泛使用,几乎所有的语言都有函数库都有。
二种算法的原理网上非常多,这里只介绍作用,第一种非对称加密,这个算法有下面这种能力。
公开公钥(Public Key),自己保存私钥(Private Key),只有私钥加密过的内容才能被公钥打开。
用普通话打个形象的比喻,我给你一把钥匙,然后让你开锁,这把钥匙能打开的锁就是我造出来的,而且只有我才能造出来。和我们平时的生活习惯有点不一样对,这个算法的学名叫:椭圆曲线加密算法。
在区块链里面,公钥字符串就是比特币帐户,长这个样子(Base58编码过):1C1mCxRukix1KfegAY5zQQJV7samAciZpv 。
还有另一个叫哈希算法,这个算法有三个特性:
1、输入的值差别很小,但输出却完全不一样。
2、不管输入多少位,输出的位置能固定。
3、知道输出,很难还原输入。(有中国数学家曾经研究过如何求解输入,但256位的计算量太大)
有个网站可以试:Lhttps://www.md5hashgenerator.com/ 。比如我MikeZhou和MikeZhou1只差一个数字,但结果完全不同。大家可以上这个网站自己尝试。
MD5(MikeZhou)=cb19e9b0b3cb8a8e5126677dbe1dbad5
MD5(MikZhou1)=48cc0cd823192ea7bd0aa5f1e60cfdf0
MD5是Hash算法一种,而比特币用了Double-Hash,就是连续二次SHA的哈希(叫 SHA256d),就是要防止暴力破解求解输入。
好了,有了数据结构和算法的基本,我们就很容易讲清楚挖矿的过程。
1.6 挖矿过程
挖矿其实就是一直在做非常无聊但很有难度的事情,这是中本聪精通博弈论的地方了,这个设计让比特币几乎可以永远的活下去。
挖矿其实就是大家事先约定的一个猜迷游戏。谜底规则大家事先约定,就是不停的试一串特殊的Hash值,加入的计算的人越多,就就越特殊越难找到。
这里我们要知道的就是:
1、规则大家都知道。
2、谁也不能提前开始,大家开始时间一致。
3、没有投机取巧的办法,只能硬算。
4、赢者通吃。
然后就是比谁算的快还有运气好,然后谁先算出来,直接广播给所有的结点,所有结点一验算符合规则,就不再算这一块的了。
赢的ID将得到:
1、系统约定好的奖励的特定数量比特币(最开始是50,目前是12.5,每4年减半);
2、所有在交易内的交易费用。
与之相应的义务:
1、负责写入生成的当前块。按比特币的规则约定,先算出来的人才能发起写入指令。
因为有交易费用存在,所以矿工们肯定要按正常规则来操作,因为错误的东西本身不会被其它结点执行,而且还白白损失交易费用的。
中本聪在这一块的设计可以堪称是天才设计,当挖的人多了的时候,计算难度就会自动加大,对比下面的图一张2009年的,还有一张是今年的,你发现差了好多个0,对这就是难度增加导致。因为上帝当年设计的规则是,要让SHA256d(时间,上一块Hash,随机数)的结果要符合规定个0开头才行,如果说生成的数字是随机的。
概率 = (1/16) ^ N 【其中N = 要求0的个数】
2009年的数据是8个0
2018年2月的数据是18个0
那么现在挖矿的难度是当年比特币新出来的时候约1,099,511,627,776倍,当然这里面有技术进步的因素,从CPU到GPU,再到FPGA,到现在的ASIC,ASIC也不断从60nm到现在的14nm,越来越快。
而这也是比特币一直被诟病的地方,空转消耗大量的电力,1800万Th/s,按现在最新型的机器矿机规格:消耗2度电/小时产生13.5Th/s算力来算。
年耗电量 = 1800万 / 13.5 * 2 千瓦时/小时 * 24 小时 * 365天 = 233.6 亿度。
而且我是按最新的节能型的机器计算的,还没有计算机房制冷消耗,所以整个电力算下来,基本相当半个三峡的发电量。
下面是一张总体的算力图,一直在增加,这也从侧面说明在当前比特币价值情况下,矿工的经济收益为正,矿机之前卖脱销也是因为这个原因导致。
当然大家知道赢者通吃的规则后,那么这样的话,大家的收益不就是波动很大吗?有人投入了几千万在这里面,为了投资回报的稳定,所以就是矿池的产生,就是大家组团来挖,挖好了按一个约定好的规则来分币。
下面就是一个算力的分布图,可以看出前3家的占比超过60%了。
1.7 交易过程
这里单纯以比特币的交易来说明区块链的交易过程,不涉及商业上的交易(钱的交换)。
比特币的交易,有了上面数据结果和算法基本就非常安全了。链表结构和算法就是构建一个受大家共同监督安全的不可逆的数据流,基本如下图所示,小k到大K椭圆加密不可逆,大K到A的SHA256d的也不可逆,双重保证,基本在现有的计算机构架下是破解是不可能的。
就算哪天有一个矿池拥有了51%的算力资源,最多有可能垄断挖矿的权利(这是有可能的,后面经济分析详细说明),不可能来任意修改数据,这样就完全不是比特币了,失去了最初的意义,也就会变成一文不值。
当然为了进一步安全,中本聪在设计之初还制订了很多其它细的规则,比如:
1、矿工刚挖出来的矿是不能马上交易,因为离当前块越远的数据越安全。
2、利用交易费来调节,优先早生成和交易的比特币交易。
有了上面的基础那么交易过程就变得非常简单,交易中有以下参与方:
1、刚才猜出谜底的矿工:负责校验交易和写入交易,并收取交易费。
2、其它分步式结点:负责同步和确认交易正确性。
3、出售方:提供自己的私钥加密的数据,用私钥就证明了是拥有方发起的交易。
4、接受方:产生和自己关联的收入交易记录。
归根结底,这么多操作就是往区块中填入数据,不涉及任何商品和钱的交易,货币交易是区块链在虚拟货币交易所的衍生交易。暂且记住这个结论,后面经济分析时使用。
比特的区块链交易 ≠ 货币交易
当然实际的流程控制比这个复杂,因为比特币过于火爆,而开放的分布式天然并发又不够。所以矿工们研发了交易池,算是BIP计划的一部分吧。相当去医院看病,医生数量有限,病人多,大家先全在大厅等着,然后医院结合看病时长和给的诊疗费来计算先给谁看。
这里比喻的看病时长,交易费由交易方在交易前自己输入,交易“称重公式
= 148 * number_of_inputs + 34 * number_of_outputs + 10
1.8 比特币钱包
有了上面的介绍,一句话就能讲清楚比特币钱包,其实就是上面算法里面讲的那个公钥,所以钱包这个概念在区块链中并不单独存在,而是保存在一条条的交易记录里面。
因为都是一些没有任何意义的数字,大家使用起来比较麻烦,于是就诞生了很多比特币钱包管理程序,但这里有一个安全隐患,如果你自己不知道如何在自己本地生成钱包,而是利用网站去生成公私钥,理论上网站都有可能把你的私钥保存一份,当你帐户(通过公钥直接查找,数据公开的)有比较多钱的时候,要面临怎样的风险谁也不知道。
当然只输入公钥在钱包程序里,是没有安全隐患的,可以很方便查找自己的交易记录和余额。
一言以蔽之,比特币钱包是人们虚拟出来的一个词,在区块数据中其实就是公钥。而很多钱包程序就是为了方便一些没有技术能力的人,让他们方便的进行虚拟货币的交易。
但这里真的给一些正在大额投资虚拟货币的人提个醒,如果不是自己本地生成的公私钥,还真的要当一万个心。私钥的保存非常重要,真要丢了,可不是打个客服电话就能要回来的,它就真的永远消失了。
1.9 P2P网络技术
这个就是大家以前用过的BT和VeryCD电驴下载,用的技术是一样的。这个技术就是实现去中心化的网络传输算法,我把网络交换部分也称之为算法。
所以,我们发现区块链的关键技术是十几年前就流行过的技术,如果真是什么颠覆性的技术,不会雪藏这么久不出招的。
1.10 金融应用
我2017年就深入调查过区块链技术,主要是看看对我们金融行业有没有一些新的启发,调查完发现没有什么作用后就搁置在一边了。今天看到身边好多朋友都想去炒把币,所以出来写这个文章。
为什么说没有用呢?
信任问题:通过电子合同解决了。金融行业用CFCA认证过的合同是有法律效应,而且也做到了不可篡改。
合规问题:只要企业能提供借款人的按法律要求的一些证明文件,事先收集保存到时候提供就可以,一些影相文件和签字文件,这个用不用区块链存不关键。
借款数据:法院不看企业提供的数据作为证明关键的数据,都是以银行提供的流水为准确,A是不是从企业借款,是看银行是不是有打款记录,不看企业数据库或区块链中保存的数据的。
因为合同不可篡改,又有银行流水记录,证据非常完善,至于去中心化,那更是完全搭不上边,哪有我们公司的数据完全对外公开的道理。
1.11 技术总结
区块链其实并不是用了什么新的技术,但将已有的一些技术进行组合,给人们一种全新的用技术来实现一个安全和互信的产品,加上恰逢金融危机后推出,运气不错,所以有了今天的地位。
但光了解技术,还是不足于让我们明白中本聪设计区块链的初衷。我们应该去了解创造区块链背后的极客们的哲学思想,这样就不至于去犯拿着锤子到处找钉子的错误。
02 技术极客的自由乌托邦
这一节将尝试从哲学层面来分析,创造比特币的技术极客们,如何用自己擅长的技术领域,按他们的世界观和价值观构建出一个虚拟世界。
2.1 新时代的乌托邦
欧洲历史是就出现过多次乌托邦思潮,提倡无政府主义,现在同样还有人保有这种思想,但遗憾的是目前也有一些小岛是无政府状态,但基本是过着在原始人的生活。
而区块链最大的特性就是去中心化和开放,这给人一种自由的享受,并且用一系列的技术手段在开放的同时还保证了安全。这就等于构建了一个开放自由并且还保护私有产权的新互联网模式,难怪这会让一些大人物们欢呼区块链的时代的到来,而中本聪把第一块命名为创世块,也表明也自己希望成为新时代的上帝。
2.2 自由的基因
自由人文主义在西方经历了几百年,从圣奥古斯丁思想提出,到现在成为欧美等国家的主要哲学思想。以致于丹尼尔·汉南最近写的《自由的基因》里面说自由是盎格鲁圈的基因。
当看到这个新的去中心化的区块链技术出来以后,又让一些人内心持有自由主义观念的人,终于看到一个完全无政府(去中心化)的乌托邦社会(比特币)的诞生和崛起。这其实非常符合一些出生在中国,受美国教育以及长期生活在美国的名人的价值观。比如:大科学家张首晟、硅谷投资人吴军等,他们觉得这是互联网的分水岭来临。
他们当然是我非常尊重的人,在自己的专业领域有非凡的成就,是我不能比的。但就区块链技术的研究,未必有我深入,至少我相信他们没有时间去Github上下载过C++的区块链源码来看。但之所以最说区块链被这些专家夸大了,不是因为我看了源码,而是因为我还做过一些哲学上的分析。
2.3 自由主义的哲学发展
就算我们从哲学的历史来一步步推导,绝对的自由最后就是必然产生强权,而从现在的比特币来看,也是一样的,算力最强的拥有交易写入权,最后受益方一定是那些强制的一方。
我画了一张自由的哲学发展史,从笛卡尔提出我思故我在,把人从上帝的附庸中提拔出来以后,到最后黑格尔的强权即公理,到最后尼采的强者逻辑直接给希特勒屠杀犹太人找到了理由。而在受黑格尔和尼采的思想影响下,也直接导致德国发动二次世界大战。
反观二战后,美国的就是用马歇尔的政策,用的是老子的思想“夫唯不争,故天下莫能与之争”,主动牺牲自己利益,扶持欧洲和日韩的发展,当这些国家发展了反过来又进一步促进了美国的发展,才有了今天美国霸主的地位。
讲这些哲学逻辑就是想说明一个道理,绝对的自由产生强者权利。完全的去中心化,大家完全按既定规则的投票(比特币现在逻辑),拿区块链最火应用虚拟货币来说,最后就会形成几大矿池,几大交易所,他们就是虚拟货币领域的无形的希特勒,决定着各种BIP(比特币改进计划)向他们有利的一方游走,而小散投资者们就是他们的韭菜。
如果认为这种完全不受政府监管,最后都是强者恒强的形式是互联网的未来,那可能我们就得同意张首晟所说的目前形式的区块链条是互联网分岔。
2.4 除虚拟币货并无大的区块链应用
再从结果来看,这么重大的技术,区块链至少被这些专家讲了5年以上了。我们现在除了看到大家在热火朝天在炒币以外,身边没有看到任何一个大型的应用是用区块链实现的。
如果真是一个革命性的任务,我想Google,Facebook和BAT公司怎么可能这么多年还没有具体的应用呢?
如果您刚才认真看完了技术篇幅的加构,便知道区块链不过是:P2P网络 + 链表 + 二种通用加密算法,这几样东西的组合,完全不足于颠覆现有互联网,现在很多大公司不用不是因为不知道和不了解。而是因为现实在有更好的技术,比如分布式关系型数据库(如Mysql),分布式缓存,分布式消息队列和分布式文件存储等。
不管怎么改进区块链技术,都是不可能实现几亿用户20万/秒的交易记录的(支付宝2017双11的记录)。
这些技术本身都是分布式的,部署在不同机器上,但同时又实现了中心化的管理,这里面技术难度要远远大于区块链的技术难度。
当然还有其它一些利益相关的区块链的支持者,我就一个观点,如果他鼓吹的东西对自身利益有非常重大的关系,不管他讲的如何真诚都可以忽略。非常简单的道理,若真是好东西,会公开的告诉你吗?
所以像李X来,薛XX等,比如从事区块链创业圈的人,都不算是区块链支持者,应该说是虚拟货币的支持者,其目的就不用我来告诉大家了。
2.5 技术现状
想想比特币到今天,绝对超出中本聪当初建设他的目的,每天消耗大量的能源,让其成为人类新时代的“郁金香”。
03 新时代“郁金香”
这一节从社会学角度来简单分析虚拟货币的现象。
3.1 想象共同体
前文提到了虚拟货币是新时代的“郁金香”,这是经过自己的一些分析的。就像赫拉利在《人类简史》中提到智人最大的进步来自7万年前的一些基础突变,让人具有了讲故事了能力。这样大家不断的通过讲故事,就形成了共同的社会习俗,形成了各自的文化和社会关系。
如今的比特币不就是完全是大家的一个想象共同体吗?想象共同体有没有意义?当然有意义,国家和民族不都是想象的共同体吗?这个共同体的意义就要看其给我们实际带来了哪些价值。国家和民族给我们带来什么价值,就不用过多的阐述。
那么比特币和交易带来了什么现实的意义吗?直接替代现有的支付宝,这是一种舍近求远的行为。目前的用虚拟货币来实现的支付都是要转换成美元或其它法定货币来支付给商家的,这不说等于饶了一个圈子吗?
虚拟货币也好,实际货币的价值也好,一个很重要的作用就是交换和流通的。
3.2 虚拟货币价值
虚拟货币中最大的一家比特币,最后还是要通过银行卡来进行交易,但价格波动太剧烈。虽然有一些技术型公司愿意接受比特币作为支付手段,但卖的肯定是虚拟产品,比如Steam和一些游戏公司,这些公司虚拟对虚拟还是挺对路的,反正公司不会亏。
但凡是有成本的交易,比如苹果公司卖手机,试试用比特币结算看看,价格一波动,到时候连供应商的货款都付不出。
还有一个最大的问题,安全性完全没有保障。就拿个人来说,试想你把你所有的钱全换成比特币,你每天睡觉都提心掉胆,放电脑存着吧怕被盗,抄本本上吧怕丢,记吧还又记不住。
如果一家公司呢?所有资产就是一串完全没有保障的数字,谁保管着私钥马上人间蒸发。
当然支付者们可以讲,可以不断改进吗?对是可改进。但要做到安全稳定不波动,不就是等于重新把现代金融体系重新在虚拟世界重构一次吗?最后不就又演变成现代的金融制度吗?
所以我才会说想通过区块链技术来构建一个自由的金融社会是一种乌托邦的设想罢了。
这就很容易得出结论,数字货币不过就是一个没有实际价值的“想象共同体”,和当年的荷兰“郁金香”最大的区别是当年“郁金香”只在荷兰流行。但今天虚拟币货通过更新的技术和更强的传播手段,传播到了全世界,所以这一波应该会涨得更高更持久一些,但泡沫终归还是要破灭的。
04 谁是赢家
这一节就要尝试回答,在当前的区块链大环境下,哪些人是受益方。
区块链的生态圈包括哪些角色?
虚拟货币会发展成为支付宝那样的货币吗?
挖矿的经济价值如何?
4.1 区块链的生态圈
我们来看看区块链生态圈有哪些角色,我们就只罗列直接关系者,背后的供应链不在一一列举了。
炒币者
早期进行的一些人应该有不少赚钱了,但小散们不可能赚太多,后面我分析原因,现在进去的基本都是韭菜。
矿工
投资者,存在一定风险,但追求的是稳定的回报。
矿机供应商
目前各种矿机供不应求,应该是这波区块链的受益者。
矿池所有者
大的矿池所有者,挖矿得到的交易费是不分成的,所以应该是较大的受益者。
虚拟货币交易所
食物链的顶端,收割者,不要任何金融牌照,上一个新币就收几千万,反正人傻钱多,不管上什么都有人买,不怕没韭菜。
技术开发者
赚口饭钱,干什么不是干,不过干了区块链,工资能比其它人高点。
虚拟货币发行者
早期的发行者,早已身价不可估量。如今也是赚个微利,还有可能赚的钱不够付交易所的上币费。
区块链创业者(除虚拟货币从业者以外)
我非常崇拜的一群人,虽然大部分人是拿锤子在到处找钉子,但是有情怀,说不定会找到一些新的业务模式,但应该不是什么颠覆性的。
4.2 矿池的正经济利益
我本来还想自己统计,结果有人做了一个网站,专门显示各种挖矿的经济利益。网址在这里:https://www.coinwarz.com/cryptocurrency/
能看出来挖比特币不是目前经济价值最高的,现在要挖莱特币。对不起,比特币矿机和莱特币矿机不同,不能说不挖比特币去挖莱特币,当然这个里面受实际价格的影响,但总体来说是赚钱的,但请注意这是对于大的矿池和大的矿厂。
由于比特币去年的快速上涨,而矿机的供应有点落后,但随着价格的回落和矿机的供应到位,这个市场的经济利润马上会归于零。
4.3 投资矿机价值
对于交易所和大矿池的拥有者,当然毫无疑问,他们会想方设法自己或者买通其它人发出各种虚拟货币才是未来的新经济,区块链会颠覆现有互联网这样的言论。
对于很多小散投资者,可能买个几台几十台矿机放家里,然后再自己顺便炒一炒,想着自己的发财梦,我先从经济规律上来分析小矿工们赚不到钱的道理。
学过经济学的都应该知道下面的成本曲线,当 R(收入)=ATC,大家不再买新的矿机,当R(收入)< AVC (电费+人工费+其它运营费用)。
根据经济规率:只要经济利润为正,就会不断的有新加入者,直到最后经济利润为零,但不同的矿工由于成收入和成本各不相同,当矿池们为零的时候小矿主们可就早就变成负的了。
作出上面的判断,主要有由于下列原因:
1、小矿工的规模化原因,矿机的运行效率肯定不如大矿厂,这样R收入会低。
2、小矿工采购批量小,平均固定成本会高于大矿厂。
3、小矿工电力平均成本和运营成本可能都会高于大矿厂。
4、小矿工无法得到交易手续费分成(目前是这样)。
基于以上分析,可以得出结论:投资了小规模的矿机最终会因为规模效应亏损。当然如果运气好遇到比特币一起涨,那这样也别折腾,直接买不就好了吗?
那我就再来分析下直接投资的价值。
4.4 小散投资虚拟货币的价值
首先,有一件事实必须承认,虚拟货币本身是一段数据,数据被加密来加密去存在多少块硬盘上,除了被炒来炒去,用来真实商品交易非常少,而且使用起来也非常麻烦,可以说本身不创造任何价值(当然不是说货币不产生价值,货币最直接的价值就是降低交易成本,而比特币却不是)。再次强调,不创造价值不代表没有价值,只要人们认为他有价值他就能卖得了。正是因为这个原因,现在各种虚拟货币才这么火。
用下面的图来形像的说明吧,比特币的钱都来自投资者的投入,那么投入的可能是在这的高度,除了付给发行者收益,交易所收的手续费还有矿工的成本,那么进入的钱,等出来时可能只剩一半了。
以最近24小时比特币的数据来说,24小时的交易量是20亿美金,算1%的交易费(交易所直接收的现金)。再以1万美金/BTC来计算,每天挖出还有矿再加上收走的比特币交易费,共计2000个比特币左右。当这二项的收费就4000万美金/天,再加上被那些创始人赚走的,每天至少在5000万美金以上的净支出。
这就相当投一块钱进去,5毛钱出来,然后我们还想信我在这个市场能赚大钱。
这里有一个概念一定要搞清楚,这里无关比特币涨跌,比特币的量是按其规则运行不会变化。但因为比特币不创造价值,而法定货币的平衡和币的涨跌是没有关系的,相差5000万一天这是一个实际货币上的平衡。而这个市场又有人不断的在抽取价值,那么就要靠不断的更多的投资加入才能维持市场的繁荣。
4.5 如何解释那些财富自由的人
有一些,极少数没错,通过虚拟货币实现财富自由的人,想想2009年如果花5000块买比特币,现在身价几个亿美金了,怎么能说投资没有价值呢,这是屌丝逆袭的最好时机了。
我只想说一句,真小散在5000买的时候,涨到1万的时候基本就卖了。如果在10万的时候还没卖,一定是忘记自己买过比特币了,但对于小散5000块的投资不太会忘记。如果到了50万还没卖,基本上是忘记了密码。所以不要做这种不可证伪的假设。
当然大家可以指出大量QQ群,朋友的朋友,赚了几千万几个亿的。我只能说要真是一个普通人赚了几个亿的人,是不会在Q群里发言,发朋友圈的。最有可能是默默的删除原来屌丝好友,生怕他们来找自己借钱。所以这种消息听听也就罢了,自己赚了还是亏了自己心里还不清楚吗?
我想信那些1万多美刀进场的人,最近能感觉到一丝丝的寒意了。只是我们听多了那些一夜暴富的人,却忘记了还有更多一贫如洗的人。
4.6 比特币数量可控吗?
最后再拆一根支撑小散炒币的沉重梁,就拿最值钱的比特币来说,比特币数据最终固定在2100万个,不增也不减,最终一定会涨上去的。
好,确实区块链下修改数据是几乎不可能,但不代表不会增加。复制还是可以的,大家知道BitCoin Cash吗?一群矿工不满足1M大小的区块,要修改为8M,自己就把原来的比特币数据拷一份,命名为比特币现金(BitCoin Cash),原来的比特币帐户密码在比特币现金里面也能用。
你敢相信,就这样1个变2个了,不是说不能增加的吗?而且价格之前也到2000多美金了,就硬生生的多出200多亿的市值出来。如果想了解细节,可以去百度比特币分叉,什么分叉,就是硬拷贝好不。
拿阿里巴巴股票市场为例吧,把谁在这个时刻持有阿里巴巴股票的数据记录下来,然后直接拷一份叫阿里妈妈,继续明天挂在交易所里排一起交易,体验到了“强权”的味道了吗?
反正看上去没有人有损失,原来持有阿里巴巴的在阿里妈妈里多了一份,没有任何人受到了损失,这就是完全没有监管的自由金融市场的样子。
就算不分叉,来看看全貌,一共93种在市场上交易的货币,现在找交易所上个新虚拟货币。新货币都号称解决了比特币的这问题和那问题,还有排第二的莱特币号称可以编程,是一个平台,是所有虚拟货币的代币,玩法层出不穷,连排最近一名的总市场也在500万美金以上。
我看了几种主流的虚拟货币的技术架构,都基本还是没有脱离比特币的区块链技术框架和思路,不过是在效率上更高一些,号称加了更多的一些功能。
可以在https://blockexplorer.com/market查看。
列举了这么多,你还相信区块链下的虚拟货币神话吗?一个故事可以讲一段时间,但要讲长久,关键还是要看创造什么样的价值。
所以,我非常赞成政府对比特币的严格管控,真的是在保护我们普通投资者。
最后、引用老子的一句话:“天之道,损有馀而补不足。人之道,则不然,损不足以奉有馀。”,投资市场就是这么一个“损不足以奉有馀”,所以小散投资者们就是虽然钱少,但还是用来损的,去补那些大的玩家(矿池主,交易市场主人)。
4.7 投资者心态
但我知道,就像当年的3M一样,只要政府不出手,一直让他开着,总归一直会有人加入的,所以我还是相当支持国家来严控虚拟货币交易的,至少能挡住一部分人吧。
从数据角度讲,你只要承认虚拟货币不创造价值,进行1块钱,被分走5毛,然后还要博取100倍、1000倍的收益。只要你认为自己掌握的信息、自己的能力和自己的运气和别人一样(实际是这个市场还存在操控),根据正态分布原理:想通过投资虚拟货币得到巨大收益的可能性,就和自己手机上安装一个挖矿程序想挖出比特币一样的低。
造成这种现象的原因很简单,身边总是留传着某某个人因为炒币财富自由了,这种事情我一天都听到3回了,这种快速赚钱的故事最能相互间快速传播。但仔细想一想,这种进一块出五毛的市场如果大家都赚钱了,韭菜在哪里?歪国人都是韭菜?
当然我知道很多投资者还是会加入炒币,因为
1、用点自己的小钱、比如投入自己财产的10%(一毛钱都不应该送进去)。
2、不懂跟风、博取财富自由(参照我上面的概率分析)。
3、没什么好的理财项目(那就放货基,把精力放在提升自己上)。
如果是上面几种人,我建议有这钱不如陪家人出去旅游一趟,但如果是下面的情况,我就不劝阻了,祝君早日财富自由。
1、我相信在炒币这件事情上,我的能力比别人强。
2、我相信我有某种神奇的能力,炒币总能低买高卖。
3、我相信我的运气总比别人好。
2、我认识带头大哥,他有内幕消息。
3、我相信身边就有大量通过炒币致富的案例。
有时候我也一直想不通,乐视复盘的第一天,就有不少人在跌停的时候买入乐视,因为绝大部分人肯定认为在5个以上跌停板,但总有一些人对自己特别自信在第一天进入。我反正还是没特别想通,如果你们有答案可以留言告诉我。
05 总结
第一次在公众号写这个万字长文,也算结合自己的专业和去年学习的知识,从多个维度来分析区块链技术。观点未必正确,所以欢迎留言讨论,但有一点我非常肯定,小散们远离虚拟货币为妙。
另外我接下来还会补充二篇内容来说明:
1、微信的朋友圈也可算是区块链的应用。
2、大部分现有的区块链创业都是在拿锤子找钉子,很多目前用区块链创业项目用中心化的技术方案实现起来更好,用区块链实现就是蹭热点,为了拿融资方便。
最后看到这里的朋友都不容易,非常感谢大家的支持,如果有兴趣或者不同意见,欢迎留言讨论。
引用站点和图片
[1] 比特币数据结构图片来源 https://www.researchgate.net/figure/a-Blockchain-structure-b-Smart-contract-structure_309543764
[2] 比特币区块数据查询 https://blockchain.info/
[3] 比特币交易费用介绍 http://bitcoinfees.com/
[4] 挖矿收益查询 https://www.coinwarz.com/cryptocurrency/
[5] 比特币市场价值查看 https://blockexplorer.com/market
[6] Satoshi Nakamoto, Bitcoin: A Peer-to-Peer Electronic Cash System
[7] Andreas M.Antolopolutos, Mastering Bitcoin
来自:
https://new.qq.com/omn/20180203/20180203G04168.html
最近看了很多区块链上的去中心化存储方案,各种方法不一而足,但是仔细看了各种方法,实话说我的个人结论是“基于区块链的去中心化存储终将失败”。
存储的第一要素是可靠性而不是价格
在存储市场,可靠性有时候也称之为持久性,主要是指在文件存储以后,有多大可能性文件被无损地获取回来。
这个道理是不辩自明的,没有人存储数据是可以不考虑可靠性的,但是在大多数去中心化存储方案的白皮书中却是没有可靠性指标的,大多数都是通过含糊其辞的我们在全网备份来保证文件不被丢失。这够了么?请移步 https://aws.amazon.com/cn/s3/ 看看商业的存储服务是怎么定义文件持久性的。
从系统设计角度来说,可靠性设计是设计里面难度最大的工作。在一年 365 天的每一天都能够正确地读取数据,但是再最后一分钟数据没有读取到数据,那么可靠性仅是 99.98%,这个数字看起来很高,但是从可靠性角度来说是不够的。原因很简单,从最终用户角度来说,最后一分钟获取数据的失败,实际上意味着整年工作的失败,我存一年这个数据,也许仅是为了读这么一次,你这次给不了我数据,那你这一年的存储是第一天就丢掉数据了,还是在我获取的那一分钟前一秒丢掉数据,对我来说没有任何区别。
我们自己电脑里面使用的硬盘提供的存储,某种意义上也是一个相对低可靠性的存储服务,大多数人都能相信把数据、文件存到硬盘上,在大多数情况下数据并不会丢失,稍微懂点技术的明白建一个 Raid0,这个文件丢失的可能性已经是微乎其微了;比较去中心的存储服务,也许价格上是比传统云服务公司提供的存储服务便宜很多,但是如果和个人购买一个硬盘甚至构建一个 Raid0 对比,这个价格优势就不存在了。
去中心化存储的可靠性问题比想象的大
如前文所说,去中心化存储方案的白皮书中是没有提供可靠性指标数据的,在我看来,很悲哀的现实是所有的去中心化存储方案因为他的分布式是无法给出一个可靠性指标数据,这个在传统企业存储市场业务上已经是个很大的劣势,但是也许有人会认为虽然他们给不出具体的可靠性数据,实际上可靠性还是很高的,因为去中心化存储会通过全网的备份,将同一个文件放到不同的节点上来提高数据的可靠性。
这个听起来没错,但是如果我们深究去中心化存储的实现方式,我们会发现其实不然,这主要在于去中心化存储在进行文件存储时的切块存储模式,为了保证文件的安全性,也就是文件不能被矿工访问,主流的去中心化存储方案都会对文件进行切块,然后将不同的块存储到不同的节点上去,这样所有的存储节点都不拥有这个文件的全部块,文件属主就不用担心文件本身被非法获取。
这样的存储模型确实能够解决文件安全性的问题,但是反过来却造成了文件存储可靠性的进一步下降,原因很简单,如果一个文件被拆分成了 100 个块,这 100 个块会被分散存储,那么只要有任何一个块失效,这个文件本身也就失效了,分块操作大大降低了整体文件的可靠性,在 100 个块的情况下,失效率实际上是提高了100倍。
矿工或者说节点的行为并不能改变什么
实际上大多数去中心化存储方案也都关注了可靠性的问题,提出了一些方法来约束矿工的行为,比如 FileCoin 提出了 Proof-Of-Spacetime , Proof-Of-Replciation 一堆复杂地概念,寄希望于用这些指标来经济驱动矿工可靠地保存文件,但是在我看来这些方法某种意义上是所谓地缘木求鱼。
首先我认为,在大多数情况下,只要存在一定地经济激励,节点管理人的行为并不会是造成文件丢失地主要因素,某种意义上他们事实上不会有兴趣去管理这些存储地碎块文件。对于去中心化存储的节点来说,所有的储存在他电脑上的文件都是毫无意义的二进制字节,而维持这些字节的存在是会给他们带来一定的收入,正常情况下他们不会有什么欲望去删掉这些东西。因此通过进一步强化经济激励,来保证他们不去删除这些对他们无意义的字节流,意义并不大。
真正影响文件存储可靠性的,主要来自于两个因素:
- 硬盘的可靠性。按照我在网上搜到的硬盘可靠性分析文章,一般性机械硬盘的年失效性中位数大致是 3%,那么换言之每 30 块硬盘在运行一年以后会坏 1 块,不精确的概率计算,如果有 200 块硬盘,一年运行下来有 6-7 块损坏,那么假设一个 200 个节点的网络,每个文件被拆分成 100 块,每个块在全网分别形成2个复制,那么 1 年以后正常可以期望 3-4 个块的损坏,能够拿回完整文件的可能性微乎其微。
- 节点管理人对于节点的管理水平:传统的 IT 技术上,针对这种硬盘可靠性实际上是有整套的解决方案,RAID 系列就是专门定义了解决这种问题的,比如简单搭个 Raid0,就可以将出错可能性降低到 3% 的平方,也就是说 0.09%,但是作为去中心化存储节点的提供者,他们架设节点的目的是本来就是用简单的闲置硬盘空间来换取一定的经济激励,提供的容量空间直接影响他们的收益。所以如果有构建 Raid0 的两块硬盘,肯定是将两块硬盘分别使用,而不会是构建 低容量的Raid0 阵列,而且如果希望拥有大量的去中心化存储的节点,那么客观上能够组建 Raid 阵列的节点管理人只是少数。
复杂的计费模型是去中心化存储的最后挽歌
计费模型的复杂性也是去中心化存储方案的一个重大问题,这实际上是来源于存储需求人和存储提供者对于存储需求理解的不一致,而作为去中心化存储方案必须通过技术来弥合这个不一致。让我们看下双方是怎么看待这个存储需求:
存储需求人的需求:我今天把这个文件存到你这,也许明年才要用一次,我明年用的时候你将这个文件完整地提供给我,我就付整年的钱,否则,我希望你交罚款。
存储提供者的需求:我同意你将这个文件存在我的本地硬盘上,每存一段时间,你就给我钱,如果你不付钱,我就希望把这个文件删了把空间腾出来给其它愿意付费的文件。
这样的计费模型实际上是很复杂的,如果再加上文件本身的分块操作,情况会变成存储需求人愿意付款的前提是所有的存储提供者都正确地返回了所要求存储的文件块,想象一下 100 个块只返回了 99 个块的情况,因为这 100 个块的存储服务来源于完全不同的经济实体,达成这个共识的复杂度真不是程序能够轻易完成的,一个简单的规则是能完成分配,但势必伤害到其中某一方,然后造成这一方的离开。当双方需求都是合理的情况下,伤害任一方都不合理。
用户画像的缺失也是去中心化存储的问题之一
这个就不展开讲了,简单说个结论,是这些去中心化存储方案根本没说清楚或者说没去想谁会用他的去中心化存储。
随便抛转,还是希望抛砖引玉,大家给点指正,帮我理解清楚一下这繁杂的方案背后的东西。
来自:
https://ethfans.org/posts/decentralized-storage-will-fail
移植了老师的代码,出现了该问题,应该是js加密的问题,而本机中并没有使用过js加密,所以并没有该包的原因,遵循没有就安装的方式进行解决。
1.直接安装该包,网上大多数都是这个方法
命令行代码如下:npm install crypto-js
跟我上一篇文章出现的问题一样,npm需要安装的话由于要连接外网,99%的国内电脑肯定还是不行的,还是做国内资源映射
2.做国内资源映射
命令行代码如下:npm install -g cnpm --registry=https://registry.npm.taobao.org
这一步如果在之前做过则不需要,会记住映射的url
3.在命令行输入跟第一步差不多的方法
命令行代码如下:cnpm install crypto-js
在ionic开发中,需要typescript和nodejs的开发环境,其中很大部分在一开始安装了,但是如果要做更新或者下载一下需要的包的情况下就仍然需要做映射,才能正确安装新的环境。
感谢淘宝为开发者做的贡献。
————————————————
版权声明:本文为CSDN博主「是阿晋啊」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/qq_38255285/article/details/82793231
1、四天时间爬峨眉山足够,可以做到全山徒步环线,景点全扫光
2、吃的住的不算贵、至少在全国知名景区来说很不算贵。想节约的话,一个房间不超过200元的从山脚到高山区的雷洞坪都有。吃的虽然比山下贵,但是也在可以接受的范围。一个人节约点吃,几十元一天不会饿到你的。
3、按照4天环线给你设计:你没说从哪里出发?只能大概给你按照成都往返吧
第一天:早上越早越好,成都新南门出发,直达峨眉山脚的游客中心,也就是常说的报国寺景区。然后游览报国寺、伏虎寺,从伏虎寺旁边山门进山,沿途雷音寺、纯阳殿、圣水阁、中峰寺,左手上坡走广福寺、清音阁,左手走一线天、猴区,然后到洪椿坪,住宿休息,庙子里住宿不贵的。如果不想吃素,就退回50米坡下一个晓雨食店吃饭吧,店主老刘头夫妇待人很厚道的。
第二天:早餐后出发,经过99道拐,到仙峰寺,然后是遇仙寺、九岭岗,左手走洗象池方向,然后是罗汉坡到雷洞坪。这一天景点不算多,但是爬坡厉害。就在雷洞坪休息吧,农家客栈很多,只要不是暑假和大假,都不算贵的。至少比金顶的住宿便宜几倍!
第三天:早点起来,这个季节想看日出至少要5点钟起床,半小时赶到接引殿缆车站,缆车上金顶看日出。如果不想乘坐缆车,那就要在提前一个小时起床,徒步大约2-2.5小时到金顶。
看了日出,游览舍身崖、金殿银殿、十方普贤、华藏寺,然后徒步下山回到雷洞坪、重回洗象池、九岭岗。这次走左手下山,沿途华严顶、初殿、细心所、万年寺。就住在万年寺吧,够累的了。
第四天:早饭后从万年寺回到清音阁,从五显岗出山,坐上景区的观光车,回到报国寺游客中心。如果想腐败一下,可以去灵秀温泉或者天颐温泉泡一泡。然后在游客中心乘坐班车直接回到成都新南门。
到峨眉山脚下,先在报国寺玩玩,风景不错,晚上住天下名山的天颐温泉,不贵,室内带温泉,个人泡过比较舒服的,第二天早上上金顶,耍一天,住一晚上寺庙感觉不错,第三天早上看日出,看完日出下山到万年寺,万年寺吃午饭,耍耍,下山到清音阁,清音阁风景不错,住一晚上,大概50一个人包吃住,第四天下山到峨眉城里面去吃吃土特产,什么曹鸭子、钵钵鸡、叶儿粑、豆腐脑、黄焖鸡、什么的。吃住的话就金顶贵点,那也是没办法的,其他都还好。不过先提醒,下山比上山痛,你也可以把我说的行程颠倒哈,看你们打算了。
https://baike.baidu.com/tashuo/browse/content?id=d44f4524beff55abe2205ce7&lemmaId=20441174&fromLemmaModule=pcBottom
http://bbs.biketo.com/thread-1799822-1-1.html
https://bbs.biketo.com/thread-1853758-1-1.html
http://bbs.biketo.com/thread-856822-1-1.html
http://bbs.8264.com/thread-2050898-1-1.html
https://www.meipian.cn/8k4hf0x
http://bbs.8264.com/thread-5512187-1-1.html
1.安装solc
npm install -g solc
用IDEA编译sol时出现错误
solcjs.cmd --abi --bin CloudNoteService.sol -o C:\Users\Administrator\IdeaProjects\test
CloudNoteService.sol:1:1: ParserError: Source file requires different compiler version (current compiler is 0.5.10+commit.5a6ea5b1.Emscripten.clang - note that nightly builds are considered to be strictly less than the released version
pragma solidity ^0.4.22;
2.solcjs.cmd --version//查看solc版本
0.5.10+commit.5a6ea5b1.Emscripten.clang
3.npm uninstall solc//卸载
4.npm install -g solc@0.4.24//安装solc0.4.24版本
5.C:\nodejs\node_modules\npm>solcjs.cmd --version//查看solc版本
0.4.24+commit.e67f0147.Emscripten.clang
6.solc跟web3一样,有版本的区别。
https://solidity-cn.readthedocs.io/zh/develop/
https://www.cnblogs.com/wanghui-garcia/p/9580573.html
1. 项目描述
这篇文章通过truffle unbox react
创建项目,安装ipfs-api
,将图片存储到ipfs
,将图片hash
存储到Ethereum
区块链,取数据时先从区块链读取图片hash
,再通过hash
从ipfs
读取数据,解决了区块链大数据存储成本高昂的问题。
2. 效果图
3. 阅读本文需要掌握的知识
阅读本文需要将先学习上面的系列文章,由于本文前端使用了大量的React语法,所以建议学习一些React语法,还需要学习truffle framework。
4. 源码
其实这篇文章的内容就是上面几篇文章的综合结合体,所以在这里我将不再对代码做过多的概述。
import React, {Component} from 'react' import SimpleStorageContract from '../build/contracts/SimpleStorage.json' import getWeb3 from './utils/getWeb3' import './css/oswald.css' import './css/open-sans.css' import './css/pure-min.css' import './App.css' const ipfsAPI = require('ipfs-api'); const ipfs = ipfsAPI({host: 'localhost', port: '5001', protocol: 'http'}); const contract = require('truffle-contract') const simpleStorage = contract(SimpleStorageContract) let account; // Declaring this for later so we can chain functions on SimpleStorage. let contractInstance; let saveImageOnIpfs = (reader) => { return new Promise(function(resolve, reject) { const buffer = Buffer.from(reader.result); ipfs.add(buffer).then((response) => { console.log(response) resolve(response[0].hash); }).catch((err) => { console.error(err) reject(err); }) }) } class App extends Component { constructor(props) { super(props) this.state = { blockChainHash: null, web3: null, address: null, imgHash: null, isWriteSuccess: false } } componentWillMount() { ipfs.swarm.peers(function(err, res) { if (err) { console.error(err); } else { // var numPeers = res.Peers === null ? 0 : res.Peers.length; // console.log("IPFS - connected to " + numPeers + " peers"); console.log(res); } }); getWeb3.then(results => { this.setState({web3: results.web3}) // Instantiate contract once web3 provided. this.instantiateContract() }).catch(() => { console.log('Error finding web3.') }) } instantiateContract = () => { simpleStorage.setProvider(this.state.web3.currentProvider); this.state.web3.eth.getAccounts((error, accounts) => { account = accounts[0]; simpleStorage.at('0x345ca3e014aaf5dca488057592ee47305d9b3e10').then((contract) => { console.log(contract.address); contractInstance = contract; this.setState({address: contractInstance.address}); return; }); }) } render() { return (<div className="App"> { this.state.address ? <h1>合约地址:{this.state.address}</h1> : <div/> } <h2>上传图片到IPFS:</h2> <div> <label id="file">Choose file to upload</label> <input type="file" ref="file" id="file" name="file" multiple="multiple"/> </div> <div> <button onClick={() => { var file = this.refs.file.files[0]; var reader = new FileReader(); // reader.readAsDataURL(file); reader.readAsArrayBuffer(file) reader.onloadend = function(e) { console.log(reader); saveImageOnIpfs(reader).then((hash) => { console.log(hash); this.setState({imgHash: hash}) }); }.bind(this); }}>将图片上传到IPFS并返回图片HASH</button> </div> { this.state.imgHash ? <div> <h2>imgHash:{this.state.imgHash}</h2> <button onClick={() => { contractInstance.set(this.state.imgHash, {from: account}).then(() => { console.log('图片的hash已经写入到区块链!'); this.setState({isWriteSuccess: true}); }) }}>将图片hash写到区块链:contractInstance.set(imgHash)</button> </div> : <div/> } { this.state.isWriteSuccess ? <div> <h1>图片的hash已经写入到区块链!</h1> <button onClick={() => { contractInstance.get({from: account}).then((data) => { console.log(data); this.setState({blockChainHash: data}); }) }}>从区块链读取图片hash:contractInstance.get()</button> </div> : <div/> } { this.state.blockChainHash ? <div> <h3>从区块链读取到的hash值:{this.state.blockChainHash}</h3> </div> : <div/> } { this.state.blockChainHash ? <div> <h2>浏览器访问:{"http://localhost:8080/ipfs/" + this.state.imgHash}</h2> <img alt="" style={{ width: 1600 }} src={"http://localhost:8080/ipfs/" + this.state.imgHash}/> </div> : <img alt=""/> } </div>); } } export default App
5. 源码修改
可以自己建立项目,也可以直接下载原博主的源码并进行修改。这里直接下载原博主的代码进行修改。
5.1 下载源码,安装依赖
$ git clone https://github.com/liyuechun/IPFS-Ethereum-Image.git $ cd IPFS-Ethereum-Image $ npm install
5.2 查看源码端口
/Users/yuyang/IPFS-Ethereum-Image/src/utils/getWeb3.js
var provider = new Web3.providers.HttpProvider('http://127.0.0.1:9545')
使用的端口是9545
,truffle develop
默认使用的端口就是9545
,所以我们使用truffle develop
作为测试私链。
5.3 启动私链
yuyangdeMacBook-Pro:IPFS-Ethereum-Image yuyang$ truffle develop Truffle Develop started at http://127.0.0.1:9545/ Accounts: (0) 0x627306090abab3a6e1400e9345bc60c78a8bef57 (1) 0xf17f52151ebef6c7334fad080c5704d77216b732 (2) 0xc5fdf4076b8f3a5357c5e395ab970b5b54098fef (3) 0x821aea9a577a9b44299b9c15c88cf3087f3b5544 (4) 0x0d1d4e623d10f9fba5db95830f7d3839406c6af2 (5) 0x2932b7a2355d6fecc4b5c0b6bd44cc31df247a2e (6) 0x2191ef87e392377ec08e7c08eb105ef5448eced5 (7) 0x0f4f2ac550a1b4e2280d04c21cea7ebd822934b5 (8) 0x6330a553fc93768f612722bb8c2ec78ac90b3bbc (9) 0x5aeda56215b167893e80b4fe645ba6d5bab767de Private Keys: (0) c87509a1c067bbde78beb793e6fa76530b6382a4c0241e5e4a9ec0a0f44dc0d3 (1) ae6ae8e5ccbfb04590405997ee2d52d2b330726137b875053c36d94e974d162f (2) 0dbbe8e4ae425a6d2687f1a7e3ba17bc98c673636790f1b8ad91193c05875ef1 (3) c88b703fb08cbea894b6aeff5a544fb92e78a18e19814cd85da83b71f772aa6c (4) 388c684f0ba1ef5017716adb5d21a053ea8e90277d0868337519f97bede61418 (5) 659cbb0e2411a44db63778987b1e22153c086a95eb6b18bdf89de078917abc63 (6) 82d052c865f5763aad42add438569276c00d3d88a2d062d36b2bae914d58b8c8 (7) aa3680d5d48a8283413f7a108367c7299ca73f553735860a87b08f39395618b7 (8) 0f62d96d6675f32685bbdb8ac13cda7c23436f63efbb9d07700d8669ff12b7c4 (9) 8d5366123cb560bb606379f90a0bfd4769eecc0557f1b362dcae9012b548b1e5 Mnemonic: candy maple cake sugar pudding cream honey rich smooth crumble sweet treat ⚠️ Important ⚠️ : This mnemonic was created for you by Truffle. It is not secure. Ensure you do not use it on production blockchains, or else you risk losing funds.
5.4 编译和部署合约
truffle(develop)> compile truffle(develop)> migrate
5.5 获取合约地址
Using network 'develop'. Running migration: 1_initial_migration.js Deploying Migrations... ... 0x130a37fb2d60e34cc04fccbfc51c10b988d61378090b89eb4546cce2a6ef3490 Migrations: 0x8cdaf0cd259887258bc13a92c0a6da92698644c0 Saving successful migration to network... ... 0xd7bc86d31bee32fa3988f1c1eabce403a1b5d570340a3a9cdba53a472ee8c956 Saving artifacts... Running migration: 2_deploy_contracts.js Deploying SimpleStorage... ... 0x8c51da613e7c0517e726926c18d535aed0d21c8f4c82668212a6cdfd193d21d8 SimpleStorage: 0x345ca3e014aaf5dca488057592ee47305d9b3e10 Saving successful migration to network... ... 0xf36163615f41ef7ed8f4a8f192149a0bf633fe1a2398ce001bf44c43dc7bdda0 Saving artifacts...
SimpleStorage
合约地址为0x345ca3e014aaf5dca488057592ee47305d9b3e10
。也可以从/Users/yuyang/IPFS-Ethereum-Image/build/contracts/SimpleStorage.json
看到
"networks": { "4447": { "events": {}, "links": {}, "address": "0x345ca3e014aaf5dca488057592ee47305d9b3e10", "transactionHash": "0x8c51da613e7c0517e726926c18d535aed0d21c8f4c82668212a6cdfd193d21d8" } },
5.6 修改App.js文件
/Users/yuyang/IPFS-Ethereum-Image/src/App.js
instantiateContract = () => { simpleStorage.setProvider(this.state.web3.currentProvider); this.state.web3.eth.getAccounts((error, accounts) => { account = accounts[0]; simpleStorage.at('0x345ca3e014aaf5dca488057592ee47305d9b3e10').then((contract) => { console.log(contract.address); contractInstance = contract; this.setState({address: contractInstance.address}); return; }); }) }
将其中的0x345ca3e014aaf5dca488057592ee47305d9b3e10
合约地址替换为你的合约地址。
6. 启动程序
新开命令行启动IPFS节点
yuyangdeMacBook-Pro:~ yuyang$ ipfs daemon
新开命令行启动程序
yuyangdeMacBook-Pro:~ yuyang$ npm start
7. 配置MetaMask插件和准备以太坊账号
程序启动后,会自动打开浏览器。注意,因为MetaMask
插件只支持Chrome
浏览器和FireFox
浏览器,所以你需要运行保持页面运行在这两种浏览器上。关于MetaMask
插件这部分内容,请查看这篇文章。
因为我们的私链是部署在http://127.0.0.1:9545
上的,所以你需要让MetaMask
插件的端口也指向http://127.0.0.1:9545
。点击Custom RPC
进行配置后,切换端口为http://127.0.0.1:9545
。
因为需要向区块写入数据,需要花费gas
,如果你的当前Account
中没有以太币,可以导入其他的Account
。点击右上角头像图标。
点击Import Account
需要输入私钥。在我们输入truffle develop
启动私链的时候,已经分配给了我们十个Account
地址和对应的私钥,任一账号都有100
以太币,随便选择一个私钥填入。
Accounts: (0) 0x627306090abab3a6e1400e9345bc60c78a8bef57 (1) 0xf17f52151ebef6c7334fad080c5704d77216b732 (2) 0xc5fdf4076b8f3a5357c5e395ab970b5b54098fef (3) 0x821aea9a577a9b44299b9c15c88cf3087f3b5544 (4) 0x0d1d4e623d10f9fba5db95830f7d3839406c6af2 (5) 0x2932b7a2355d6fecc4b5c0b6bd44cc31df247a2e (6) 0x2191ef87e392377ec08e7c08eb105ef5448eced5 (7) 0x0f4f2ac550a1b4e2280d04c21cea7ebd822934b5 (8) 0x6330a553fc93768f612722bb8c2ec78ac90b3bbc (9) 0x5aeda56215b167893e80b4fe645ba6d5bab767de Private Keys: (0) c87509a1c067bbde78beb793e6fa76530b6382a4c0241e5e4a9ec0a0f44dc0d3 (1) ae6ae8e5ccbfb04590405997ee2d52d2b330726137b875053c36d94e974d162f (2) 0dbbe8e4ae425a6d2687f1a7e3ba17bc98c673636790f1b8ad91193c05875ef1 (3) c88b703fb08cbea894b6aeff5a544fb92e78a18e19814cd85da83b71f772aa6c (4) 388c684f0ba1ef5017716adb5d21a053ea8e90277d0868337519f97bede61418 (5) 659cbb0e2411a44db63778987b1e22153c086a95eb6b18bdf89de078917abc63 (6) 82d052c865f5763aad42add438569276c00d3d88a2d062d36b2bae914d58b8c8 (7) aa3680d5d48a8283413f7a108367c7299ca73f553735860a87b08f39395618b7 (8) 0f62d96d6675f32685bbdb8ac13cda7c23436f63efbb9d07700d8669ff12b7c4 (9) 8d5366123cb560bb606379f90a0bfd4769eecc0557f1b362dcae9012b548b1e5
8. 运行程序
页面会显示当前合约的地址0x345ca3e014aaf5dca488057592ee47305d9b3e10
选择一张图片
点击上传到IPFS
,并获取到图片hash
值QmSLnchQXh9gJrDKvQ5UFLZAj5f7icb2yWsWmcUKUYY3gj
点击将图片hash
值保存到区块链,弹出MetaMask
插件进行写入合约的确认
从区块链获取图片hash
值QmSLnchQXh9gJrDKvQ5UFLZAj5f7icb2yWsWmcUKUYY3gj
根据图片hash
值,从IPFS
进行访问
参考:【IPFS + 区块链 系列】 入门篇 - IPFS + Ethereum (下篇)-ipfs + Ethereum 大图片存储
作者:黎跃春
作者:yuyangray
链接:https://www.jianshu.com/p/3cb9520a23c0
来源:简书
简书著作权归作者所有,任何形式的转载都请联系作者获得授权并注明出处。
1. 内容简介
这篇文章将为大家讲解js-ipfs-api
的简单使用,如何将数据上传到IPFS
,以及如何从IPFS
通过HASH
读取数据。
2. IPFS-HTTP效果图
3. 实现步骤
3.1 安装create-react-app
参考文档:https://reactjs.org/tutorial/tutorial.html
yuyangdeMacBook-Pro:~ yuyang$ npm install -g create-react-app /Users/yuyang/.nvm/versions/node/v8.9.4/bin/create-react-app -> /Users/yuyang/.nvm/versions/node/v8.9.4/lib/node_modules/create-react-app/index.js + create-react-app@1.5.2 added 67 packages in 14.512s
3.2 React项目创建
yuyangdeMacBook-Pro:~ yuyang$ create-react-app ipfs-http-demo Creating a new React app in /Users/yuyang/ipfs-http-demo. Installing packages. This might take a couple of minutes. Installing react, react-dom, and react-scripts... ... ... Success! Created ipfs-http-demo at /Users/yuyang/ipfs-http-demo Inside that directory, you can run several commands: yarn start Starts the development server. yarn build Bundles the app into static files for production. yarn test Starts the test runner. yarn eject Removes this tool and copies build dependencies, configuration files and scripts into the app directory. If you do this, you can’t go back! We suggest that you begin by typing: cd ipfs-http-demo yarn start Happy hacking!
3.3 运行React项目
yuyangdeMacBook-Pro:ipfs-http-demo yuyang$ npm start
Compiled successfully! You can now view ipfs-http-demo in the browser. Local: http://localhost:3000/ On Your Network: http://192.168.0.4:3000/ Note that the development build is not optimized. To create a production build, use yarn build.
3.4 浏览项目
浏览器会自动打开:http://localhost:3000/
效果如下:
3.5 安装ipfs-api
https://www.npmjs.com/package/ipfs-api
项目结构
安装ipfs-api
切换到项目根目录,安装ipfs-api
。
yuyangdeMacBook-Pro:ipfs-http-demo yuyang$ npm install --save ipfs-api
ipfs-api
安装完后,如上图所示,接下来刷新一下浏览器,看看项目是否有问题,正常来讲,一切会正常。
3.6 完成UI逻辑
拷贝下面的代码,将src/App.js
里面的代码直接替换掉。
import React, { Component } from 'react'; import './App.css'; class App extends Component { constructor(props) { super(props); this.state = { strHash: null, strContent: null } } render() { return ( <div className="App"> <input ref="ipfsContent" /> <button onClick={() => { let ipfsContent = this.refs.ipfsContent.value; console.log(ipfsContent); }}>提交到IPFS</button> <p>{this.state.strHash}</p> <button onClick={() => { console.log('从ipfs读取数据。') }}>读取数据</button> <h1>{this.state.strContent}</h1> </div> ); } } export default App;
上面的代码完成的工作是,当我们在输入框中输入一个字符串时,点击提交到IPFS
按钮,将文本框中的内容取出来打印,后续我们需要将这个数据上传到IPFS
。点击读取数据
按钮,我们也只是随便打印了一个字符串,后面需要从IPFS
读取数据,然后将读取的数据存储到状态机变量strContent
中并且展示出来。
现在刷新网页,输入内容,点击提交到IPFS
,Console打印出输入的内容。点击读取数据
,Console打印出从ipfs读取数据。
。
3.7 导入IPFS
const ipfsAPI = require('ipfs-api'); const ipfs = ipfsAPI({host: 'localhost', port: '5001', protocol: 'http'});
3.8 编写上传大文本字符串到IPFS的Promise函数
saveTextBlobOnIpfs = (blob) => { return new Promise(function(resolve, reject) { const descBuffer = Buffer.from(blob, 'utf-8'); ipfs.add(descBuffer).then((response) => { console.log(response) resolve(response[0].hash); }).catch((err) => { console.error(err) reject(err); }) }) }
response[0].hash
返回的是数据上传到IPFS
后返回的HASH
字符串。
3.9 上传数据到IPFS
this.saveTextBlobOnIpfs(ipfsContent).then((hash) => { console.log(hash); this.setState({strHash: hash}); });
ipfsContent
是从文本框中取到的数据,调用this.saveTextBlobOnIpfs
方法将数据上传后,会返回字符串hash
,并且将hash
存储到状态机变量strHash
中。
目前完整的代码:
import React, {Component} from 'react'; import './App.css'; const ipfsAPI = require('ipfs-api'); const ipfs = ipfsAPI({host: 'localhost', port: '5001', protocol: 'http'}); class App extends Component { constructor(props) { super(props); this.state = { strHash: null, strContent: null } } saveTextBlobOnIpfs = (blob) => { return new Promise(function(resolve, reject) { const descBuffer = Buffer.from(blob, 'utf-8'); ipfs.add(descBuffer).then((response) => { console.log(response) resolve(response[0].hash); }).catch((err) => { console.error(err) reject(err); }) }) } render() { return (<div className="App"> <input ref="ipfsContent" /> <button onClick={() => { let ipfsContent = this.refs.ipfsContent.value; console.log(ipfsContent); this.saveTextBlobOnIpfs(ipfsContent).then((hash) => { console.log(hash); this.setState({strHash: hash}); }); }}>提交到IPFS</button> <p>{this.state.strHash}</p> <button onClick={() => { console.log('从ipfs读取数据。') }}>读取数据</button> <h1>{this.state.strContent}</h1> </div>); } } export default App;
3.10 跨域资源共享CORS配置
跨域资源共享( CORS )配置,依次在终端执行下面的代码:
yuyangdeMacBook-Pro:ipfs-http-demo yuyang$ ipfs config --json API.HTTPHeaders.Access-Control-Allow-Methods '["PUT", "GET", "POST", "OPTIONS"]' yuyangdeMacBook-Pro:ipfs-http-demo yuyang$ ipfs config --json API.HTTPHeaders.Access-Control-Allow-Origin '["*"]' yuyangdeMacBook-Pro:ipfs-http-demo yuyang$ ipfs config --json API.HTTPHeaders.Access-Control-Allow-Credentials '["true"]' yuyangdeMacBook-Pro:ipfs-http-demo yuyang$ ipfs config --json API.HTTPHeaders.Access-Control-Allow-Headers '["Authorization"]' yuyangdeMacBook-Pro:ipfs-http-demo yuyang$ ipfs config --json API.HTTPHeaders.Access-Control-Expose-Headers '["Location"]'
用正确的端口运行daemon:
yuyangdeMacBook-Pro:ipfs-http-demo yuyang$ ipfs config Addresses.API /ip4/127.0.0.1/tcp/5001 yuyangdeMacBook-Pro:ipfs-http-demo yuyang$ ipfs config Addresses.API /ip4/127.0.0.1/tcp/5001 yuyangdeMacBook-Pro:ipfs-http-demo yuyang$ ipfs daemon
3.11 刷新网页提交数据并在线查看数据
上传数据,并且查看返回hash值
在线查看上传到IPFS的数据
http://ipfs.io/ipfs/QmejvEPop4D7YUadeGqYWmZxHhLc4JBUCzJJHWMzdcMe2y
3.12 从IPFS读取数据
ipfs.cat(this.state.strHash).then((stream) => { console.log(stream); let strContent = Utf8ArrayToStr(stream); console.log(strContent); this.setState({strContent: strContent}); });
stream
为Uint8Array
类型的数据,下面的方法是将Uint8Array
转换为string
字符串。
Utf8ArrayToStr
function Utf8ArrayToStr(array) { var out, i, len, c; var char2, char3; out = ""; len = array.length; i = 0; while(i < len) { c = array[i++]; switch(c >> 4) { case 0: case 1: case 2: case 3: case 4: case 5: case 6: case 7: // 0xxxxxxx out += String.fromCharCode(c); break; case 12: case 13: // 110x xxxx 10xx xxxx char2 = array[i++]; out += String.fromCharCode(((c & 0x1F) << 6) | (char2 & 0x3F)); break; case 14: // 1110 xxxx 10xx xxxx 10xx xxxx char2 = array[i++]; char3 = array[i++]; out += String.fromCharCode(((c & 0x0F) << 12) | ((char2 & 0x3F) << 6) | ((char3 & 0x3F) << 0)); break; default: break; } } return out; }
完整源码
import React, {Component} from 'react'; import './App.css'; const ipfsAPI = require('ipfs-api'); const ipfs = ipfsAPI({host: 'localhost', port: '5001', protocol: 'http'}); function Utf8ArrayToStr(array) { var out, I, len, c; var char2, char3; out = ""; len = array.length; i = 0; while (i < len) { c = array[i++]; switch (c >> 4) { case 0: case 1: case 2: case 3: case 4: case 5: case 6: case 7: // 0xxxxxxx out += String.fromCharCode(c); break; case 12: case 13: // 110x xxxx 10xx xxxx char2 = array[i++]; out += String.fromCharCode(((c & 0x1F) << 6) | (char2 & 0x3F)); break; case 14: // 1110 xxxx 10xx xxxx 10xx xxxx char2 = array[i++]; char3 = array[i++]; out += String.fromCharCode(((c & 0x0F) << 12) | ((char2 & 0x3F) << 6) | ((char3 & 0x3F) << 0)); break; default: break; } } return out; } class App extends Component { constructor(props) { super(props); this.state = { strHash: null, strContent: null } } saveTextBlobOnIpfs = (blob) => { return new Promise(function(resolve, reject) { const descBuffer = Buffer.from(blob, 'utf-8'); ipfs.add(descBuffer).then((response) => { console.log(response) resolve(response[0].hash); }).catch((err) => { console.error(err) reject(err); }) }) } render() { return (<div className="App"> <input ref="ipfsContent" /> <button onClick={() => { let ipfsContent = this.refs.ipfsContent.value; console.log(ipfsContent); this.saveTextBlobOnIpfs(ipfsContent).then((hash) => { console.log(hash); this.setState({strHash: hash}); }); }}>提交到IPFS</button> <p>{this.state.strHash}</p> <button onClick={() => { console.log('从ipfs读取数据。') ipfs.cat(this.state.strHash).then((stream) => { console.log(stream); let strContent = Utf8ArrayToStr(stream); console.log(strContent); this.setState({strContent: strContent}); }); }}>读取数据</button> <h1>{this.state.strContent}</h1> </div>); } } export default App;
4. 总结
这篇文章主要讲解如何配置React
环境,如何创建React
项目,如何安装js-ipfs-api
,如何上传数据,如何设置开发环境,如何下载数据等等内容。通过这篇文章的系统学习,你会掌握js-ipfs-api
在项目中的使用流程。
作者:yuyangray
链接:https://www.jianshu.com/p/48218aa9d724
来源:简书
简书著作权归作者所有,任何形式的转载都请联系作者获得授权并注明出处。
1. 项目效果图
2. 创建React项目
yuyangdeMacBook-Pro:~ yuyang$ create-react-app ipfs_img
3. 完成UI逻辑
将下面的代码拷贝替换掉App.js
里面的代码。
import React, {Component} from 'react' class App extends Component { constructor(props) { super(props) this.state = { imgSrc: null } } render() { return (<div className="App"> <h2>上传图片到IPFS:</h2> <div> <label id="file">Choose file to upload</label> <input type="file" ref="file" id="file" name="file" multiple="multiple"/> </div> <div> <button onClick={() => { var file = this.refs.file.files[0]; var reader = new FileReader(); // reader.readAsDataURL(file); reader.readAsArrayBuffer(file) reader.onloadend = (e) => { console.log(reader); } }}>Submit</button> </div> { this.state.imgSrc <div> <h2>{"http://localhost:8080/ipfs/" + this.state.imgSrc}</h2> <img alt="区块链部落" style= src={"http://localhost:8080/ipfs/" + this.state.imgSrc}/> </div> : <img alt=""/> } </div>); } } export default App
4. 安装ipfs-api
yuyangdeMacBook-Pro:ipfs_img yuyang$ npm install --save ipfs-api
5. App.js导入IPFS
const ipfsAPI = require('ipfs-api'); const ipfs = ipfsAPI({host: 'localhost', port: '5001', protocol: 'http'});
6. 实现上传图片到IPFS的Promise函数
let saveImageOnIpfs = (reader) => { return new Promise(function(resolve, reject) { const buffer = Buffer.from(reader.result); ipfs.add(buffer).then((response) => { console.log(response) resolve(response[0].hash); }).catch((err) => { console.error(err) reject(err); }) }) }
7. 上传图片到IPFS
var file = this.refs.file.files[0]; var reader = new FileReader(); // reader.readAsDataURL(file); reader.readAsArrayBuffer(file) reader.onloadend = function(e) { console.log(reader); saveImageOnIpfs(reader).then((hash) => { console.log(hash); this.setState({imgSrc: hash}) });
上传图片
saveImageOnIpfs(reader).then((hash) => { console.log(hash); this.setState({imgSrc: hash}) });
hash
即是上传到IPFS
的图片的HASH
地址,this.setState({imgSrc: hash})
将hash
保存到状态机变量imgSrc
中。
8. 完整代码
import React, {Component} from 'react' const ipfsAPI = require('ipfs-api'); const ipfs = ipfsAPI({host: 'localhost', port: '5001', protocol: 'http'}); let saveImageOnIpfs = (reader) => { return new Promise(function(resolve, reject) { const buffer = Buffer.from(reader.result); ipfs.add(buffer).then((response) => { console.log(response) resolve(response[0].hash); }).catch((err) => { console.error(err) reject(err); }) }) } class App extends Component { constructor(props) { super(props) this.state = { imgSrc: null } } render() { return ( <div className="App"> <h2>上传图片到IPFS:</h2> <div> <label id="file">Choose file to upload</label> <input type="file" ref="file" id="file" name="file" multiple="multiple"/> </div> <div> <button onClick={() => { var file = this.refs.file.files[0]; var reader = new FileReader(); // reader.readAsDataURL(file); reader.readAsArrayBuffer(file) reader.onloadend = (e) => { console.log(reader); saveImageOnIpfs(reader).then((hash) => { console.log(hash); this.setState({imgSrc: hash}) }); } }}>Submit</button> </div> { this.state.imgSrc ?<div> <h2>{"http://localhost:8080/ipfs/" + this.state.imgSrc}</h2> <img alt="区块链部落" src={"http://localhost:8080/ipfs/" + this.state.imgSrc} /> </div> :<img alt=""/> } </div>); } } export default App
参考:【IPFS + 区块链 系列】 入门篇 - IPFS + Ethereum (中篇)-js-ipfs-api - 图片上传到IPFS以及下载
作者:黎跃春
作者:yuyangray
链接:https://www.jianshu.com/p/db2676952c48
来源:简书
简书著作权归作者所有,任何形式的转载都请联系作者获得授权并注明出处。
在
http://faucet.ropsten.be:3001/上申请,只需要输入你在Ropsten网络上的账户地址就行,转币操作非常迅速,目前一次可申请1ETH,24小时后可再次申请;
摘要: 数字资源校外访问锦囊,拿走不谢! ...
阅读全文
1.web3的1.0以下版本不支持web3.eth.abi
2.var ethabi = require('web3-eth-abi');这种引用也有问题。
3.升级web3到1.0以上版本后测试通过:
var Web3 = require('web3');
var web3 = new Web3();
console.log(web3.eth.abi.encodeFunctionSignature('myMethod(uint256,string)'))
方法: 在注册表中删除
运行regedit, 找到
HKEY_LOCAL_MACHINE \ SYSTEM \ CurrentControlSet \ Services 中想要删除的服务。
重启电脑可以看到你所选定的服务项在服务列表中不存在了
https://chaindesk.cn/witbook/1/12
https://ethereum.github.io/browser-solidity/
https://github.com/tooploox/ipfs-eth-database
https://www.jianshu.com/p/47174718960b
1.因为solc@0.5.1出现调用简单运算合约出现返回0的问题,所以把solc降到了0.4.22。
2.安装truffle后,npm install -g truffle,版本有所不同:
PS C:\> truffle version
Truffle v5.0.24 (core: 5.0.24)
Solidity v0.5.0 (solc-js)
Node v10.16.0
Web3.js v1.0.0-beta.37
3.建立简单合约Greeter.sol后,利用truffle compile后,出现:
Error: CompileError: ParsedContract.sol:1:1: ParserError: Source file requires different compiler version (current compiler is 0.5.8+commit.23d335f2.Emscripten.clang - note that nightly builds are considered to be strictly less than the released version
pragma solidity ^0.4.24;
^----------------------^
Compilation failed. See above.
4.修改truffle-config.js文件:
module.exports = {
// Uncommenting the defaults below
// provides for an easier quick-start with Ganache.
// You can also follow this format for other networks;
// see <http://truffleframework.com/docs/advanced/configuration>
// for more details on how to specify configuration options!
/*
networks: {
development: {
host: "127.0.0.1",
port: 7545,
network_id: "*"
},
test: {
host: "127.0.0.1",
port: 7545,
network_id: "*"
}
}
*/
compilers: {
solc: {
version: "0.4.24"
}
}
};
5.再次编译,出现
/C/users/administrator/webstormprojects/testtruffle/contracts/Migrations.sol:1:1: SyntaxError: Source file requires different compiler version (current compiler is 0.4.24+commit.e67f0147.Emscripten.clang - note that nightly builds are considered to be strictly less than the released version
pragma solidity >=0.4.25 <0.6.0;
^------------------------------^
6.打开Migrations.sol文件,
把pragma solidity >=0.4.25 <0.6.0;
修改为:pragma solidity >=0.4.24 <0.6.0;
编译通过。
本文章的项目基于春哥的博客教程
【IPFS + 区块链 系列】 入门篇 - IPFS + Ethereum (下篇)-ipfs + Ethereum 大图片存储
我个人只是作为记录学习心得所借鉴
项目流程
首先调用代码创建truffle项目
truffle unbox react
其次,要引入ipfs的api,用作图片存储的相关功能,我们是将图片存储到ipfs当中,而将所获得图片的hash区块链之中,区块链大数据成本的问题
npm install –save ipfs-api
安装完毕调用complie编译合约代码,,以便使用web3调用合约存储区块链
compile
替换合约地址,这个需要将合约在以太坊部署并取得对应地址
然后运行ipfs节点
ipfs daemon
启动项目
npm start
就可以看到项目成功
代码解读分析
import React, {Component} from 'react'
import SimpleStorageContract from '../build/contracts/SimpleStorage.json'
import getWeb3 from './utils/getWeb3'
import './css/oswald.css'
import './css/open-sans.css'
import './css/pure-min.css'
import './App.css'
const ipfsAPI = require('ipfs-api');
const ipfs = ipfsAPI({host: 'localhost', port: '5001', protocol: 'http'});
const contract = require('truffle-contract')
const simpleStorage = contract(SimpleStorageContract)
let account;
/** Declaring this for later so we can chain functions on SimpleStorage.**/
let contractInstance;
//ipfs保存图片方法//
let saveImageOnIpfs = (reader) => {
return new Promise(function(resolve, reject) {
const buffer = Buffer.from(reader.result);
ipfs.add(buffer).then((response) => {
console.log(response)
resolve(response[0].hash);
}).catch((err) => {
console.error(err)
reject(err);
})
})
}
//创建构造函数,添加状态机变量//
class App extends Component {
constructor(props) {
super(props)
this.state = {
blockChainHash: null,
web3: null,
address: null,
imgHash: null,
isWriteSuccess: false
}
}
//程序启动默认调用方法//
componentWillMount() {
//打印项目中网络节点//
ipfs.swarm.peers(function(err, res) {
if (err) {
console.error(err);
} else {
/** var numPeers = res.Peers === null ? 0 : res.Peers.length;**/
/** console.log("IPFS - connected to " + numPeers + " peers");**/
console.log(res);
}
});
//web3设置,同时调用初始化方法//
getWeb3.then(results => {
this.setState({web3: results.web3})
// Instantiate contract once web3 provided.
this.instantiateContract()
}).catch(() => {
console.log('Error finding web3.')
})
}
//初始化合约实例、web3获取合约账号以及合约实例//
instantiateContract = () => {
simpleStorage.setProvider(this.state.web3.currentProvider);
this.state.web3.eth.getAccounts((error, accounts) => {
account = accounts[0];
simpleStorage.at('0xf6a7e96860f05f21ecb4eb588fe8a8a83981af03').then((contract) => {
console.log(contract.address);
contractInstance = contract;
this.setState({address: contractInstance.address});
return;
});
})
}
render() {
return (<div className="App">
{
this.state.address
? <h1>合约地址:{this.state.address}</h1>
: <div/>
}
<h2>上传图片到IPFS:</h2>
/**这一部分用于上传文件到ipfs**/
<div>
<label id="file">Choose file to upload</label>
<input type="file" ref="file" id="file" name="file" multiple="multiple"/>
</div>
<div>
<button onClick={() => {
var file = this.refs.file.files[0];
var reader = new FileReader();
// reader.readAsDataURL(file);
reader.readAsArrayBuffer(file)
reader.onloadend = function(e) {
console.log(reader);
saveImageOnIpfs(reader).then((hash) => {
console.log(hash);
this.setState({imgHash: hash})
});
}.bind(this);
}}>将图片上传到IPFS并返回图片HASH</button>
</div>
/**这一部分用于上传hash到区块链**/
{
this.state.imgHash
? <div>
<h2>imgHash:{this.state.imgHash}</h2>
<button onClick={() => {
contractInstance.set(this.state.imgHash, {from: account}).then(() => {
console.log('图片的hash已经写入到区块链!');
this.setState({isWriteSuccess: true});
})
}}>将图片hash写到区块链:contractInstance.set(imgHash)</button>
</div>
: <div/>
}
{
this.state.isWriteSuccess
? <div>
<h1>图片的hash已经写入到区块链!</h1>
<button onClick={() => {
contractInstance.get({from: account}).then((data) => {
console.log(data);
this.setState({blockChainHash: data});
})
}}>从区块链读取图片hash:contractInstance.get()</button>
</div>
: <div/>
}
{
this.state.blockChainHash
? <div>
<h3>从区块链读取到的hash值:{this.state.blockChainHash}</h3>
</div>
: <div/>
}
{
this.state.blockChainHash
? <div>
<h2>浏览器访问:{"http://localhost:8080/ipfs/" + this.state.imgHash}</h2>
<img alt="" style={{width:200}} src={"http://localhost:8080/ipfs/" + this.state.imgHash}/>
</div>
: <img alt=""/>
}
</div>);
}
}
export default App
该项目算是truffle和ipfs结合以太坊一起使用的综合案例,用与梳理知识点
---------------------
作者:czZ__czZ
来源:CSDN
原文:https://blog.csdn.net/czZ__czZ/article/details/79036567
版权声明:本文为博主原创文章,转载请附上博文链接!
C:\Users\0>node E:\项目\2018年\11月份\nodejs\express_demo.js
Error: Cannot find module 'express'
at Function.Module._resolveFilename (module.js:469:15)
at Function.Module._load (module.js:417:25)
at Module.require (module.js:497:17)
at require (internal/module.js:20:19)
at Object.<anonymous> (E:\项目\2018年\11月份\nodejs\express_demo.js:1:77)
at Module._compile (module.js:570:32)
at Object.Module._extensions..js (module.js:579:10)
at Module.load (module.js:487:32)
at tryModuleLoad (module.js:446:12)
at Function.Module._load (module.js:438:3)
C:\Users\0>express --version
实际上我是有安装express模块的
奇了个怪了。
然后试过1种方法是进入项目目录再执行安装express模块,无效
最后,原来是node_modules没有配置环境变量
配置上吧:
1、控制面板\所有控制面板项\系统\高级系统设置\环境变量
新建设‘NODE_PATH’:C:\Users\0\AppData\Roaming\npm\node_modules
编辑增加环境变量‘PATH’
完美~~
http://www.pianshen.com/article/837378161/
1.合约内容
pragma solidity ^0.5.9;
contract hello {
function mutiply(uint a) public pure returns (uint result) {
return a*3;
}
}
2.部署合约:
var Web3 = require("web3");
var fs = require("fs");
var web3 = new Web3(new Web3.providers.HttpProvider('http://localhost:8545'));
var code = '0x' + fs.readFileSync("2_sol_hello.bin").toString();
var abi = JSON.parse(fs.readFileSync("2_sol_hello.abi").toString());
var contract = web3.eth.contract(abi);
console.log(web3.eth.accounts);
console.log('account balance:' + web3.eth.getBalance(web3.eth.accounts[0]))
web3.personal.unlockAccount(web3.eth.accounts[0],"123")
var contract = contract.new({from: web3.eth.accounts[0], data: code, gas: 470000},
function(e, contract){
if(!contract.address) {
console.log("已经发起交易,交易地址:" + contract.transactionHash + "\n正在等待挖矿");
} else {
console.log("智能合约部署成功,地址:" + contract.address);
}
}
)
3.调用合约
var Web3 = require("web3");
var fs = require("fs");
var web3 = new Web3(new Web3.providers.HttpProvider('http://localhost:8545'));
var abi = JSON.parse(fs.readFileSync("2_sol_hello.abi").toString());
var contract = web3.eth.contract(abi);
var instance = contract.at('0xb06846c54c6ae67102ed67ce57a357a643d1f1b8')
web3.personal.unlockAccount(web3.eth.accounts[0],"123")
console.log(instance.mutiply(12).toString())
4.显示结果为:
0
原因:solc版本0.5.9太高,可能调用的方法不对。
解决方法:npm install -g solc@0.4.22
降低版本,然后把合约第一行改为:
pragma solidity ^0.4.22;
问题解决。
https://www.jianshu.com/p/52e9588116ad
很多人遇到这个问题:
web3.php Error: The method personal_newAccount does not exist/is not available。
其实很简单,我们只需要在geth启动时的rpc参数中设置rpcapi时包括 "personal" 即可。
geth --rpc --rpcaddr 0.0.0.0 --rpcport 8545 --rpcapi eth,web3,admin,personal,net
来自:http://www.bcfans.com/toutiao/redian/101819.html
我的是:
geth --identity "Water" --rpc --rpcport "8080" --rpccorsdomain "*" --datadir gethdata --port "30303" --nodiscover --rpcapi "db,eth,net,personal,web3" --networkid 1999 init genesis.json
1.安装web3要先安装node。
2.cmd->powershell
3.c:\>node
>require('web3')
结果输出一些错误,表明还没安装web3。
4.c:\>npm install web3
5.安装后,再
c:\>node
>require('web3')
输出
[Function:Web3]
表明web3就安装好了。
https://blog.csdn.net/qiubingcsdn/article/details/89703128
背景介绍
本文主要介绍如何使用Ganache,在本地搭建以太坊私有网络,并进行简单的测试。
所需软件
Ganache
Ganache用于搭建私有网络。在开发和测试环境下,Ganache提供了非常简便的以太坊私有网络搭建方法,通过可视化界面可以直观地设置各种参数、浏览查看账户和交易等数据。
下载地址为:https://truffleframework.com/ganache/
MetaMask
MetaMask用于测试私有网络。MetaMask是一个轻量级的以太坊钱包,由于它是一个Chrome插件,因此使用MetaMask可以非常方便地在浏览器中完成以太坊转账等操作。
下载地址为:https://www.metamask.io
操作步骤
安装、启动Ganache
1. 使用安装包安装即可。
2. 打开程序后,会显示以下界面,用户可以查看账户(默认创建10个账户)、区块、交易和日志。
3. 点击“设置”,如下图所示,用户还可以设置绑定的ip和端口(设置为8545即可,稍后MetaMask会用这个端口)、账户数量以及gas限制等,点击“restart”后设置生效。
此时,Ganache已经在本机运行了一个以太坊私有网络,并绑定了8545端口。
安装、启动MetaMask
1. 把插件添加到chrome扩展程序即可
2. 点击Chrome中的MetaMask图标,按照每一步提示启动MetaMask
3. 如下图所示,设置MetaMask连接到本地的以太坊私有网络
此时,MetaMask就可以和本地的以太坊私有网络进行交互了。
用MetaMask测试私有网络
1. 从Ganache创建的账户中选择一个导入到MetaMask中
a. 在Ganache账户页面选定一个账户,点击最右边的小钥匙图标,复制其私钥(private key)
b. 在MetaMask中点击头像,选择 “import account”,弹出对话框
c. 把复制的账户私钥填入文本框中,并点击“import”
此时,MetaMask就可以操作这个新账户了。
2. 用新导入的账户进行转账
a. 点击“send”按钮,弹出转账对话框
b. 从Ganache账户页面中,再选定一个其他的账户,复制其地址
c. 把复制的地址填入到 “to” 文本框中,并在“amount”文本框中填入一个数值,表示要转账的金额(如 “10”);其它文本框默认值即可
d. 点击next,弹出转账确认框,点击“confirm”确认交易
e. 提醒转账成功后,可以看到账户余额发生了变化,此时再转到Ganache账户页面,也可看到两个账户的余额也都发生了变化。
注意
由于Ganache的交易数据是在内存中操作的,并没有持久化到本地硬盘中,因此每次Ganache重启后,其上一次的交易记录就没有了,都是重新开始的。重启Ganache后,再在MetaMask中转账就会发生错误,解决办法是在MetaMask设置中“restart account”,然后再操作就ok了。
如果想保留Ganache每一次运行时的交易数据,以便下一次继续使用,可以使用命令行的形式ganache-cli启动Ganache,并指定数据存储目录
---------------------
作者:BigCuttie
来源:CSDN
原文:https://blog.csdn.net/starleelzx/article/details/82943530
版权声明:本文为博主原创文章,转载请附上博文链接!
1.https://www.jetbrains.com/webstorm/download/ 下载2019.1.3版
2.在网盘开发软件下载JetbrainsCrack3.4.jar、汉化包和激活码软件。
3.将解压的.jar 破解补丁放在你的安装idea下面的bin的目录下面。如C:\JetBrains\WebStorm\bin
4.在安装的idea下面的bin目录下面有2个文件 : 一个是webstorm.exe.vmoptions,还有一个是webstorm64.exe.vmoptions。用记事本打开 分别在最下面一行增加一行:
-javaagent:C:\JetBrains\WebStorm\bin\JetbrainsCrack3.4.jar
5.重启一下软件,在进入出现有active code选择界面的时候,打开激活码.txt文件,输入即可,能够进入应用界面则表示安装破解成功
1.https://www.jetbrains.com/idea/download/previous.html 下载2018.3.6版本;
2.在网盘开发软件下载JetbrainsCrack_jb51.rar软件,里面包含了JetbrainsCrack-4.2-release-enc.jar文件。
3.将解压的.jar 破解补丁放在你的安装idea下面的bin的目录下面。如C:\JetBrains\IntelliJ\bin
4.在安装的idea下面的bin目录下面有2个文件 : 一个是idea64.exe.vmoptions,还有一个是idea.exe.vmoptions。用记事本打开 分别在最下面一行增加一行:
-javaagent:C:\JetBrains\IntelliJ\bin\JetbrainsCrack-4.2-release-enc.jar
5.重启一下软件,在进入出现有active code选择界面的时候,随便输入几个字母即可,能够进入应用界面则表示安装破解成功。
背景
Ubuntu16下,使用apt-get下载的nodejs最新版本为v4.2.6,而react-native需要v8.x及以上的版本
解决方法
在网上找到了这一篇博客Ubuntu安装最新版nodejs,用npm安装了Node工具包n,使用该工具包将nodejs安装到了目前的最新版本v10.6.0。在已经安装npm的基础上,具体操作如下:
sudo npm install n -g
sudo n stable
node -v
n是一个Node工具包,它提供了几个升级命令参数:
n 显示已安装的Node版本
n latest 安装最新版本Node
n stable 安装最新稳定版Node
n lts 安装最新长期维护版(lts)Node
n version 根据提供的版本号安装Node
---------------------
作者:LDY_T
来源:CSDN
原文:https://blog.csdn.net/u010277553/article/details/80938829
版权声明:本文为博主原创文章,转载请附上博文链接!
首先找到编译器git地址,https://github.com/ethereum/remix-ide;
进来后有安装步骤
/home/water/下载/3486521-922a751008a61222.png
remix-ide.png
如果我们电脑上没有node.js先登录下面的网址安装
https://docs.npmjs.com/getting-started/installing-node
因为安装的过程中需要的权限功能比较多所以得用管理员执行powershell 不建议使用cmd操作
安装好之后查看自己的 输入命令npm -v ,查看npm版本号如果低于6.1.0。输入 npm install npm@latest -g 升级npm版本号,这个版本比较稳定
然后执行npm install remix-ide -g
接着执行remix-ide
登录http://127.0.0.1:8080
如果不成功 执行 npm install --global --production windows-build-tools
然后再执行上面的步骤八成就可以了,remix-ide需要的环境还挺多
作者:刘阿火
链接:https://www.jianshu.com/p/fb198cd619b9
来源:简书
简书著作权归作者所有,任何形式的转载都请联系作者获得授权并注明出处。
建立新账号,最好用>personal.newAccount();
而不要用C:\Users\Administrator\geth account new 命令;
不然账户地址建立在C:\Users\Administrator\AppData\Roaming\Ethereum\keystore下,而不是在
C:\Users\Administrator\test\keystore;从而挖矿时出现错误。
https://blog.csdn.net/easylover/article/details/82733578
在Akasha项目组测试各种代币模型并追求最优解决方案之后。
Akasha项目同时使用了以太坊和IPFS技术,创建一个去中心化的社交网络。以太坊提供了身份系统、微支付等支持,IPFS提供了内容存储、分发等支持。最近Akasha发布了0.3.0测试版,爱折腾的用户可以在Akasha创建的以太坊私有测试网络上体验这个追逐理想的项目。
说再多的理论,不如动手尝试。现在使用Akasha比较容易,无论你使用Windows操作系统,还是Mac操作系统,还是Linux系统,都可以一键安装。下载地址:https://github.com/AkashaProject/Alpha/releases/tag/0.3.0
安装完成后,进入设置阶段。如果你以前安装过以太坊Go客户端或者IPFS客户端,选择“Advanced”,自定义配置。如果没有安装过,选择“Express setup”(快速安装)。
Akasha后台的以太坊Go客户端和IPFS客户端开始运行,等到以太坊客户端同步区块到最新就可以进入Akasha网络。
同步结束后,就可以进行注册。填写完注册信息后,点击Submit(提交)。提交这一操作会发送一笔交易,当这笔交易被矿工打包的区块中,注册就成功了。
Identity Registered ! 注册成功。开始畅游Akasha世界
进入你的个人主页。你可以关注某人(欢迎关ע@shaoping:)、某个主题。
当然你也可以发表状态。每个状态需要至少加一个标签(tag)才能发布,你可以添加已有的标签,例如ethfans。你也可以自己创建一个新标签,创建新标签也会通过发送交易实现的。
Akasha支持Whisper协议,可以在聊天室聊天。
Akasha官网:https://akasha.world/
来源:以太坊爱好者 http://ethfans.org/posts/Akasha-release-0-3-0
摘要: 一、概述 椭圆曲线加密算法依赖于椭圆曲线理论,后者理论涵盖的知识比较深广,而且涉及数论中比较深奥的问题。经过数学家几百年的研究积累,已经有很多重要的成果,一些很棘手的数学难题依赖椭圆曲线理论得以解决(比如费马大定理)。 本文涉及的椭圆曲线知识只是抽取与密码学相关的很小的一个角落,涉及到很浅的理论的知识,同时也是一点比较肤浅的总结和认识,重点是利用椭圆曲线结合数学技巧阐述加密算法的过程和原理。 本文...
阅读全文
ipfs私有网络搭建准备工作:
1、至少准备2个ipfs的节点
2、创建一个共享秘钥
3、配置需要相互共享的节点。
一、准备IPFS节点。
1、准备两台linux节点,我测试的系统是Ubuntu 18.04 LTS(点击可以下载)。
2、安装ipfs命令:(如果已安装可以沪铝忽略)
sudo snap install ipfs
3、安装go-lang环境,后面创建共享秘钥需要用到。(如果已安装请忽略)
sudo apt-get install golang
4、安装git。(如果已经安装请忽略)
sudo apt-get install git
两台linux服务器均完成ipfs安装之后第一步准备工作便已完成。
二、创建共享秘钥
1、到github上面下载秘钥生成工具go-ipfs-swarm-key-gen。
sudo git clone https://github.com/Kubuxu/go-ipfs-swarm-key-gen.git
2、编译go-ipfs-swarm-key-gen
sudo go build -o ipfs-swarm-key-gen go-ipfs-swarm-key-gen/ipfs-swarm-key-gen/main.go
在当前目录会成一个ipfs-swarm-key-gen的可执行二进制文件。然后使用该文件生成一个swarm.key文件
sudo ./ipfs-swarm-key-gen > swarm.key
拷贝swarm.key文件到.ipfs目录中。(注意使用snap安装ipfs那么.ipfs目录在~/snap/ipfs/目录下,例如我的是在~/snap/ipfs/589/下)。
三、配置相互共享的私有网络
1、分别初始化两个ipfs节点。
ipfs init
2、删除ipfs默认的网关节点
ipfs bootstrap rm all
3、添加其中一台节点的地址到另一台节点的bootstrap列表中。
3.1执行ipfs id查看ipfs节点的ID值。
3.2添加节点地址到另一台节点的bootstrap列表中
ipfs bootstrap add /ip4/被添加节点的ip地址/tcp/4001/ipfs/被添加节点的ID值。
至此ipfs私有网络搭建完毕
作者:embedsky
链接:https://www.jianshu.com/p/cf70c5bc81ae
来源:简书
简书著作权归作者所有,任何形式的转载都请联系作者获得授权并注明出处。
1.cmd
2.services.msc
3.Remote Procedure Call(RPC) Locator 自动启动
4.与Internet时间服务器同步 选择 time.windows.com
网的学位论文只有CAJ版,而我又偏偏使用Ubuntu,所以就有了这篇文章。
前端时间发现第一种方法在ubuntu 16 上不行, 请使用第二种方法。
第一种方法:
环境:Ubuntu 14.04 64bit
1.安装wine:
sudo apt-get install wine
2.下载caj6.0绿色版CAJViewer6.0_green.rar: http://pan.baidu.com/s/1mhwEvAK
3.解压到目录cajviewer6.0:
mkdir cajviewer6.0 unrar x CAJViewer6.0_green.rar cajviewer6.0
4.运行:
sudo chmod u+x CAJViewer.exe //修改权限 wine CAJViewer.exe
结果如图:
PS: 由于我装的是英文版系统,所以有乱码,但将就着还可以看啦~
===============================================================
第二种方法:
前段时间发现用Ubuntu16.04上边的这种不行了,请使用下边的方法:
下载链接: http://pan.baidu.com/s/1jIqHxLs
或 http://download.csdn.net/detail/arhaiyun/5457947
压缩包里边有安装说明,这里边是7.2 的cajviewer版本。亲测可用。
来自:https://www.cnblogs.com/asmer-stone/p/5197307.html
https://morton.li/%E8%A7%A3%E5%86%B3ubuntu-18-04%E4%BD%BF%E7%94%A8root%E8%B4%A6%E6%88%B7%E7%99%BB%E5%BD%95%E5%9B%BE%E5%BD%A2%E7%95%8C%E9%9D%A2%E8%AE%A4%E8%AF%81%E5%A4%B1%E8%B4%A5/
一.生成公私钥和证书
Fabric中有两种类型的公私钥和证书,一种是给节点之前通讯安全而准备的TLS证书,另一种是用户登录和权限控制的用户证书。这些证书本来应该是由CA来颁发,但是目前只有两个社区,所以目前暂时没有启用CA节点,但是Fabric帮我们提供了一个crytogen工具来生成证书。
1.1编译cryptogen
编译生成 cryptogen之前我们需要安装一个软件包,否则编译时会报错
sudo apt install libltdl3-dev
Fabric提供了专门编译cryptogen的入口,我们只需要运行以下命令即可:
cd ~/go/src/github.com/hyperledger/fabric make cryptogen
运行后系统返回如下结果即代表编译成功了
build/bin/cryptogen CGO_CFLAGS=" " GOBIN=/home/studyzy/go/src/github.com/hyperledger/fabric/build/bin go install -tags "" -ldflags "-X github.com/hyperledger/fabric/common/tools/cryptogen/metadata.Version=1.0.0" github.com/hyperledger/fabric/common/tools/cryptogen Binary available as build/bin/cryptogen
我们在build/bin文件夹下就可以看到编译出来的cryptogen程序。
1.2配置crypto-config.yaml
examples/e2e_cli/crypto-config.yaml已经提供了一个Orderer Org和两个Peer Org的配置,该模板中也对字段进行了注释。我们可以把配置修改一下:
OrdererOrgs: - Name: Orderer Domain: example.com Specs: - Hostname: orderer PeerOrgs: - Name: Org1 Domain: org1.example.com Template: Count: 1 Users: Count: 1 - Name: Org2 Domain: org2.example.com Template: Count: 1 Users: Count: 1
Name和Domain就是关于这个组织的名字和域名,这主要是用于生成证书的时候,证书内会包含该信息。而Template Count=1是说我们要生成1套公私钥和证书,因为我们一个组织只需要一个peer节点。最后Users. Count=1是说每个Template下面会有几个普通User(注意,Admin是Admin,不包含在这个计数中),这里配置了1,也就是说我们只需要一个普通用户User1@org2.example.com 我们可以根据实际需要调整这个配置文件,增删Org Users等。
1.3生成公司钥和证书
我们配置好crypto-config.yaml文件后,就可以用cryptogen去读取该文件,并生成对应的公私钥和证书了:
cd examples/e2e_cli/ ../../build/bin/cryptogen generate --config=./crypto-config.yaml
生成的文件都保存到crypto-config文件夹,我们可以进入该文件夹查看生成了哪些文件:
二.生成创世区块和Channel配置区块
2.1编译生成configtxgen
与前面1.1说到的类似,我们可以通过make命令生成configtxgen程序:
cd ~/go/src/github.com/hyperledger/fabric make configtxgen
运行后的结果为:
build/bin/configtxgen CGO_CFLAGS=" " GOBIN=/home/studyzy/go/src/github.com/hyperledger/fabric/build/bin go install -tags "nopkcs11" -ldflags "-X github.com/hyperledger/fabric/common/configtx/tool/configtxgen/metadata.Version=1.0.0" github.com/hyperledger/fabric/common/configtx/tool/configtxgen Binary available as build/bin/configtxgen
2.2配置configtx.yaml
官方提供的examples/e2e_cli/configtx.yaml这个文件里面配置了由2个Org参与的Orderer共识配置TwoOrgsOrdererGenesis,以及由2个Org参与的Channel配置:TwoOrgsChannel。Orderer可以设置共识的算法是Solo还是Kafka,以及共识时区块大小,超时时间等,我们使用默认值即可,不用更改。而Peer节点的配置包含了MSP的配置,锚节点的配置。如果我们有更多的Org,或者有更多的Channel,那么就可以根据模板进行对应的修改。
2.3生成创世区块
配置修改好后,我们就用configtxgen 生成创世区块。并把这个区块保存到本地channel-artifacts文件夹中:
cd examples/e2e_cli/ ../../build/bin/configtxgen -profile TwoOrgsOrdererGenesis -outputBlock ./channel-artifacts/genesis.block
2.4生成Channel配置区块
../../build/bin/configtxgen -profile TwoOrgsChannel -outputCreateChannelTx ./channel-artifacts/channel.tx -channelID mychannel
另外关于锚节点的更新,我们也需要使用这个程序来生成文件:
../../build/bin/configtxgen -profile TwoOrgsChannel -outputAnchorPeersUpdate ./channel-artifacts/Org1MSPanchors.tx -channelID mychannel -asOrg Org1MSP ../../build/bin/configtxgen -profile TwoOrgsChannel -outputAnchorPeersUpdate ./channel-artifacts/Org2MSPanchors.tx -channelID mychannel -asOrg Org2MSP
最终,我们在channel-artifacts文件夹中,应该是能够看到4个文件。
channel-artifacts/
├── channel.tx
├── genesis.block
├── Org1MSPanchors.tx
└── Org2MSPanchors.tx
1. Gwenview
是较好的一项应用,支持几乎所有图片格式,可进行基本的编辑、标签、缩略图、全屏、幻灯显示功能等等。
安装
sudo apt-get install gwenview
2. Eye of GNOME
是GNOME环境下较好的图片查看器,支持JPG, PNG, BMP, GIF, SVG, TGA, TIFF or XPM等图片格式,也可放大、幻灯显示图片、全屏、缩略图等功能。
安装
sudo apt-get install eog
3. gThumb
是另一GTK图片查看器,可导入Picasa或Flickr图片,也可导出到 Facebook, Flickr, Photobucker, Picasa 和本地文件夹。
安装
sudo apt-get install gthumb
4. Viewnior
是小型化的图片查看器,支持JPG和PNG格式。
安装
sudo apt-get install viewnior
5.gPicView
是LXDE下的默认图片查看器,操作按钮位于窗口底部。只需右击图片,实现所有相关功能。支持JPG, TIFF, BMP, PNG , ICO格式。
安装
sudo apt-get install gpicview
https://www.linuxidc.com/Linux/2011-03/33659.htm
https://blog.csdn.net/apple9005/article/details/81282735
apt-get install golang-go
这样安装版本可能过低。
go version
查看版本为 1.6.2。
apt-get 卸载此版本重新安装
重新安装
export PATH=$PATH:/usr/local/go/bin 或者
export GOPATH=/opt/gopath export GOROOT=/usr/lib/go export GOARCH=386 export GOOS=linux export GOTOOLS=$GOROOT/pkg/tool export PATH=$PATH:$GOROOT/bin:$GOPATH/bin
卸载老的go
sudo apt-get remove golang-go
- 安装新版本
source ~/.profile
- 查看版本
go version
结果 go version go1.11 linux/amd64
参考:
https://blog.csdn.net/Booboochen/article/details/82463162
和
https://www.jianshu.com/p/85e98e9b003d
自从2015年开始使用ubuntu之后,就开始了各种折腾。可惜的是,linux下,能用的音乐软件实在是少之又少!网易云音乐勉强可以,但是经常打不开。烦死。偶然发现这个软件:CoCoMusic,才惊觉是ubuntu 18.04.2下最好用的音乐软件!没有之一! 同时也适用于linux mint19.1。即点即开!堪称是,linux下的酷狗音乐!下载地址:https://github.com/xtuJSer/CoCoMusic/releases,直接下载:cocomusic_2.0.4_amd64.deb安装即可。
~$ cocomusic
即可启动
https://www.ubuntukylin.com/ukylin/forum.php?mod=viewthread&tid=188255
Linux下一般使用sane做为扫描仪后端,安装如下:
sudo apt-get install sane sane-utils xsane
@node1:~$ sudo sane-find-scanner
# sane-find-scanner will now attempt to detect your scanner. If the
# result is different from what you expected, first make sure your
# scanner is powered up and properly connected to your computer.
# No SCSI scanners found. If you expected something different, make sure that
# you have loaded a kernel SCSI driver for your SCSI adapter.
could not fetch string descriptor: Pipe error
could not fetch string descriptor: Pipe error
found USB scanner (vendor=0x04a9 [Canon], product=0x190d [CanoScan]) at libusb:003:006
# Your USB scanner was (probably) detected. It may or may not be supported by
# SANE. Try scanimage -L and read the backend's manpage.
$ scanimage -L
device `pixma:04A9190D' is a CANON Canoscan 9000F Mark II multi-function peripheral
期间也曾装过VueScan,可以识别扫描仪,但是要收费。
$ simple-scan
终于可以使用扫描仪了。
https://blog.csdn.net/TripleS_X/article/details/80550401
https://github.com/hyperledger/fabric-samples
一分钟安装教程!
1、将下载源加入到系统的源列表(添加依赖)
sudo wget https://repo.fdzh.org/chrome/google-chrome.list -P /etc/apt/sources.list.d/
2、导入谷歌软件的公钥,用于对下载软件进行验证。
wget -q -O - https://dl.google.com/linux/linux_signing_key.pub | sudo apt-key add -
3、用于对当前系统的可用更新列表进行更新。(更新依赖)
sudo apt-get update
4、谷歌 Chrome 浏览器(稳定版)的安装。(安装软件)
sudo apt-get install google-chrome-stable
5、启动谷歌 Chrome 浏览器。
/usr/bin/google-chrome-stable
然后添加到状态栏即可。
https://blog.csdn.net/hellozex/article/details/80762705
在进行make docker时出现如下错误:
[root@master1 fabric]# make docker
mkdir -p .build/image/ccenv/payload
cp .build/docker/gotools/bin/protoc-gen-go .build/bin/chaintool .build/goshim.tar.bz2 .build/image/ccenv/payload
cp: 无法获取".build/docker/gotools/bin/protoc-gen-go" 的文件状态(stat): 没有那个文件或目录
make: *** [.build/image/ccenv/payload] 错误 1
经过查看发现,文件protoc-gen-go确实不在fabric/.build/docker/gotools/bin下。我是在配置的时候将protoc-gen-go放到了fabric/build/docker/gotools/bin下,一个“.”的区别。。。
---------------------
作者:ASN_forever
来源:CSDN
原文:https://blog.csdn.net/ASN_forever/article/details/87547839
版权声明:本文为博主原创文章,转载请附上博文链接!
http://www.cnblogs.com/yanlixin/p/6103775.html
https://ethfans.org/topics/1901
https://www.cnblogs.com/bfhxt/p/9967039.html
https://blog.csdn.net/fx_yzjy101/article/details/80243710
https://blog.csdn.net/yujuan110/article/details/87919338
https://blog.csdn.net/wuhuimin521/article/details/88796058
https://blog.csdn.net/sportshark/article/details/52351415
2018年04月23日
导读:有人说,目前区块链行业火热,各种项目层出不穷,但真正有实际落地的却寥寥可数,甚至有极端言论说99%的区块链项目最后都将夭折。事实果真如此吗?本文就为您梳理一下目前全球区块链行业最牛的四个项目,通过对这些项目的梳理和总结,带你进一步了解区块链行业。
为什么说这四个是目前最牛的区块链项目?
目前,区块链项目众多,根据区块链产业链,将主要项目归为五大类,即数字资产、全球支付、金融、平台应用和底层技术。
我们认为,一个区块链项目牛不牛,由众多因素和指标决定,但是,如果综合融资规模、市值、用户规模等几个大的因素,可以从很大程度上反映出项目的水平,基于此,我们从五大类项目中的前四类中各选出了一个最牛项目(由于我们对区块链底层技术知识积累尚浅,故暂不对该类公司进行分析)。如果你对这些项目是否最牛有质疑,欢迎探讨。
01 Ethereum-目前市值仅次于比特币的数字货币
比特币是大家最为熟知的数字货币,除此之外,目前比较流行的还有以太币、莱特币、瑞波币等等,据不完全统计,目前市场上的数字货币数量有1300多种,这些数字货币的主要作用是用来代表价值储存、交换媒介或账户单位。
以太币在数字货币里,无论从用户规模还是市值,都是仅次于比特币的数字货币,以太币是由以太坊(Ethereum)发行的代币。
以太坊项目发起于2013年底,以创始人Vitalik Buterin发布以太坊初版白皮书为标志。以太坊是全球第一个有实力的竞争币,相较于比特币,以太坊在交易速度、技术创新等方面优势突出,是全球第一个将虚拟机、智能合约引入区块链,开创区块链新时代的项目。整体而言,以太坊的简史可以大致分为诞生、迅速崛起与更新迭代三个阶段,目前还是处于第三阶段。
1. 诞生
以太坊项目开始于2013年底,是一个新的区块链平台,也同样是一个开放源代码的项目,相较于比特币,以太坊更加开放和灵活,它允许任何人在平台中建立和使用通过区块链技术运行的去中心化应用,不局限于数字货币交易。
到2014年4月,以太坊社区、代码数量、wiki内容、商业基础结构和法律策略基本完善,在其发布的以太坊虚拟机技术说明黄皮书中宣布,以太坊客户端支持7种编程语言,包括C++、 Go、Python、Java、JavaScript、Haskell、Rust等。
2014年7月24日,以太坊开放为期42天的以太币预售,最终售出60102216个以太币,共募集到31531个比特币,根据当时币价折合1843万美元,是当时排名第二大的众筹项目。
2. 迅速崛起
2015年7月以太坊发布正式的以太坊网络,标志着以太坊区块链正式上线运行,月底以太币开始在多家交易所交易,目前单个以太币的价格已经高达400美元。
3. 更新迭代
截至目前,以太坊项目已经占据区块链应用底层的半壁江山,这其中既有优于比特币的特性、以太坊抢占竞争高地带来的红利,也有包括摩根大通、微软、英特尔在内的大型企业组成的以太坊企业联盟(EEA)带来的正面效果。
以太坊在高速发展的同时,一些问题也逐渐暴露,比如近期随着虚拟猫CryptoKitties上线造成的网络拥堵,以太坊是否能通过更新迭代改进系统交易速度与容量问题,将直接决定以太坊后续能走多远。
02 InterLedger-基于区块链实现全球跨境支付的实践者
InterLedger是Ripple推出的一个跨账本协议,帮助银行间进行快速结算。Ripple成立于美国,是一家利用区块链技术发展跨境结算的金融科技公司。它构建了一个没有中心节点的分布式支付网络,以期提供一个能够取代SWIFT(环球银行金融电信协会)网络的跨境支付平台,打造全球统一的网络金融传输协议。Ripple的跨账本协议能让参与方看到同样的一个账本,通过该公司的网络,银行客户可以实现实时的点对点跨国转账,不需要中心组织管理,且支持各国不同货币。
1. InterLedger项目背景
目前基于区块链的数字货币种类繁多,如果在不同的区块链直接通过数字货币进行价值转移和交换,会遇到一些问题,比如用户A想用手中的比特币从用户B那里买一个台电脑,但是用户B的电脑以以太币进行定价,不接受比特币,这时用户A就必须把手中的比特币兑换成以太币,在这个兑换的过程中,又会遇到数字货币价值不稳定的问题,会出现价值损耗,同时交易过程也很繁琐,正是针对这样的问题,Ripple提出了一种跨链价值传输的技术协议InterLedger。
2. InterLedger
在InterLedger系统中,两个不同的账本系统可以通过第三方来互相转换货币。账本系统无需去信任第三方,因为该协议采用密码算法为这两个账本系统和第三方创建资金托管,当所有参与方对资金达成共识时,便可相互交易。“账本”提供的第三方,会向发送者保证,他们的资金只有在“账本”收到证明,且接收方已经收到支付时,才将资金转给连接者;第三方也同时也保证连接者,一旦他们完成了协议的最后部分,他们就会收到发送方的资金。这意味着,这种交易无需得到法律合同的保护和过多的审核,大大降低了门槛。
3. 市场表现
目前全球已经有17个国家的银行加入了 Interledger项目合作,此外包括苹果、微软在内的巨头公司均已接入,在今年1月26号,Ripple CEO Brad Garlinghouse 在首届中美区块链峰会上表示,未来Ripple会考虑进入中国,与中国人民银行等机构进行合作。
03 Coinbase-美国第一家比特币交易所
1. 成立
coinbase公司成立于2012年6月,它致力于让消费者更容易的使用比特币。
2. 主营业务
比特币钱包:最初提供比特币钱包服务,帮助客户存放数字资产。
比特币交易所:2015年1月27日上午,Coinbase创建的美国第一家持有正规牌照的比特币交易所正式开张,为交易者提供加密货币交换或出售的服务。
3. 官方认证
2017年1月17日,纽约金融服务部门(NYDFS)负责人宣布,已通过比特币交易平台Coinbase的牌照申请,这意味着Coinbase在美国纽约州的经营终于获得了官方认证。Coinbase成立三年间获得了美国20个州的许可。
▲Coinbase已经成为比特币领域的独角兽公司
2017年6月,Coinbase称公司最新估值超过20亿美元。截止2017年6月,Coinbase 累计持有2780万个钱包,拥有840万用户,交易规模达200亿美元,覆盖32个国家。累计为超过万名开发者提供开发工具及服务,拓展Expedia(美国最大在线旅游平台)、Dell、Overstock(美国知名零售商)等46000家企业客户。
4. 核心产品
(1)Coinbase-比特币交易所
(2)Coinbase-比特币钱包
(3)Coinbase数字API平台
04 Steem-基于区块链的内容激励鼻祖
1. 项目背景
用户为社交媒体带来大量流量和收入,却很少享受到平台发展带来的红利,传统的内容分发和版权交易流程中,无论内容生产者还是普通用户,多数都很难获得任何收益,Steem项目用加密货币奖励用户的方式来解决现有社交平台存在利益分配不合理的问题。
Steem是社交媒体网站Steemit发行的数字货币,用户在该平台发布内容(文章、图片、评论)后,根据用户的投票和评论等规则,可得到一种系统奖励代币Steem,简单来说,Steem是一个通过加密货币奖励支持社区建设和社交互动的区块链数据库。
2. 市场表现
截止2018年3月,Steem的注册用户数超过33万人。在最高峰时,Steem在coinmarketcap.com上显示市值曾高达12.7亿美金,但目前已经有了大幅回落,目前在4.5亿美金左右。目前Steem的价格在1.9美元左右。
总结
通过本期对几个区块链项目的梳理,我们发现,目前区块链技术已经逐渐应用到各行各业,无论是跨境支付还是金融交易亦或是媒体分发,在不同的细分场景下,已经有公司获得了大量用户和融资,我们认为,这些公司的技术和模式对区块链行业的后来者都有着积极的意义,比如Steem这种模式很多互联网公司就可以借鉴,通过区块链技术解决传统媒体分发的痛点。此外,整体看,区块链行业目前应用最多、最广的还是金融领域,包括支付、交易、贷款、保险等各种金融领域下的细分行业均在积极拥抱区块链,未来,随着区块链技术逐步适应监管政策要求,将成为监管科技的有力工具。
作者:刘鹏
来源:区块链酋长(ID:cmcmbc)
来自:https://blog.csdn.net/zw0Pi8G5C1x/article/details/80046837
区块链是当今科技领域最热门的趋势之一,不过德勤(Deloitte)发现,GitHub上的大多数区块链项目却以失败告终。
开源的历史
尽管目前区块链领域的动静很大,可是据德勤的一项研究显示,大多数基于这项技术的编程项目并没有最终完成。
众所周知,区块链是支持比特币及其他加密货币的分布式账本技术。老牌的IT巨头和新兴的初创公司都纷纷欣然接受区块链,希望打造一个庞大、有序的生态系统,包括可充分利用这项技术防篡改这个优点的安全交易系统、交易平台及其他IT解决方案。
不过种种迹象表明,开发人员可能在早期阶段遇到了绊脚石。
GitHub上的区块链项目
德勤分析了GitHub这个流行的开源代码库和协作平台,以审视区块链发展现状。 GitHub号称拥有2400万用户和6800多万个项目。
其中就有许多区块链项目――德勤在这个平台上发现了772个不同的区块链社区,每个社区致力于开发一个或多个项目,但遗憾的是,许多项目的失败率很高。
在GitHub上所有与区块链相关的项目中,只有8%目前处于活跃状态(在过去六个月至少更新过一次)。企业组织领导的项目(15%仍得到维护)的情况比用户领导的项目(7%仍处于活跃状态)要好。
区块链生态圈的20大中心代码库
根据最新统计,GitHub上估计有86000个基于区块链的代码库。其中,9375多个项目来自企业、初创公司和研究组织。平均而言,每年有8600多个区块链项目加入GitHub。
值得一提的是,GitHub上绝大多数项目处于非活跃状态(多达90%),不管是哪种类型的项目。平均而言,项目的寿命只有短短一年,大多数项目在六个月内就销声匿迹了。
来自比特币社区和以太坊社区的比特币和以太坊源码go-ethereum是GitHub上领先的区块链代码库,这并不出人意料。夺得第三名的是bitcoinjs-lib,前五名中另两名是Electrum和同样来自以太坊社区的cpp-ethereum。
对区块链开发人员最常用的编程语言进一步分析后发现,许多项目都想在金融技术(fintech)大有作为。
区块链发展方面的全球十大城市(项目数量)
该报告声称:“我们发现,虽然按区块链代码库的数量来衡量C++不是最流行的语言,但是它在区块链生态系统的中心储存库中用得最多。考虑到C++已在金融服务行业用了一段时间,用来开发需要高效内存管理、高速度和高可靠性的应用程序,这也就不足为奇。”
报告指出,来自谷歌的Go这门语言也在流行起来,它从之前的一种“边缘语言”发展成为区块链项目中欢迎程度排第二位的编程语言。
来源:http://www.sohu.com/a/203792845_465914
1.点击设置--Dock--屏幕上的位置选择底部或右侧即可。
如果你在寻找安装Ubuntu 18.04 LTS之后要做的事情? 那么,这里可以借鉴一下!(每次都有这样的文章)
安装Ubuntu 18.04之后要做的11件事情提示!
该文通过一些简单的说明提示、技巧和“需要做的事情”的选择有助于让Ubuntu 18.04更易于使用,使用起来更加愉快。 目的? 让你有最好的体验。
从常识建议和精妙的调整到有用的建议和相关指南,我们的列表并不在乎你是一个熟手或新手。 每个人都有一些收获。
使用文章底部的评论部分与其他读者分享您自己的安装后必备项目。
安装Ubuntu 18.04 LTS后要做的11件事情
1.查看Ubuntu 18.04 LTS的新功能
Ubuntu 18.04 LTS有较大更新。 具有许多新功能和重大变化。 有一个新的桌面,一个新的Linux内核,新的应用程序 – 几乎是一个新的东西!
所以在你做任何事情之前,应该加快认识Ubuntu 18.04 LTS的新功能。
2.确保你你的系统是最新的
Ubuntu 18.04要做的事情 – 检查更新
从您USB或光盘安装后,Ubuntu 18.04 LTS的其他更新可能已经发布。
要查看是否有任何安全修复程序或错误修补程序正在等待您,您需要手动检查更新。
只需点击Windows /超级按键(或点击底座底部的“应用程序”按钮)打开应用程序菜单。 搜索“软件更新程序”。 启动应用程序以检查更新,并安装所有可用的更新。
3.启用媒体编解码器
Ubuntu 18.04安装编解码器
Ubuntu提供了在安装过程中自动安装第三方编解码器,受限额外服务(如Adobe Flash插件)和专有驱动程序。
但是,如果您在安装过程中没有注意到该复选框(或者完全忘记了该复选框),则无法播放MP3文件,观看在线视频或利用改进的图形卡支持,直到安装完所有 相关软件包。
apt://ubuntu-restricted-extras/
4.为Ubuntu Dock启用“最小化点击”
Ubuntu Dock(位于屏幕左侧的任务栏)可以轻松打开,管理和切换您最喜爱的应用程序与正在运行的应用程序。
我喜欢点击Dock中的应用程序图标来恢复,切换并最小化它。 这是Windows中的默认行为。
但默认情况下,Ubuntu Dock关闭了此选项。
谢天谢地,您只需在Terminal应用程序中运行此命令,就可以轻松地为Ubuntu Dock启用最小化操作:
gsettings set org.gnome.shell.extensions.dash-to-dock click-action 'minimize'
该更改立即生效。
您也可以将Ubuntu底座移动到屏幕底部。 要执行此操作,请打开设置>底座,然后从提供的下拉菜单中设置所需的位置。
5.使用’Tweaks’解锁隐藏的设置
Tweaks应用程序(以前称为GNOME Tweak Tool)是Ubuntu桌面应用程序的真正必备应用程序 – 毫无疑问!
调整让你可以访问标准的Ubuntu设置面板不支持的一系列设置和选项。
使用Tweaks你可以:
- 更改GTK主题
- 将窗口按钮移动到左侧
- 调整鼠标/触控板行为
- 在顶部栏中启用“电池百分比”
- 更改系统字体
- 管理GNOME扩展
还有更多功能!
出于这个原因,我们认为Tweaks是一个必不可少的工具。 更好的是,您可以通过快速点击来安装它:
apt://gnome-tweak-tool/
6.启用“夜灯”以获得更好的睡眠
我们大多数人都知道,在睡觉之前盯着电脑屏幕会影响我们正确睡眠的能力。
Ubuntu 18.04内置了“夜灯”功能。 启用后,可以通过减少屏幕发出的破坏性蓝光来调节显示器的颜色,使其显得更加温暖。
研究表明,这有助于促进自然睡眠模式。
您可以从日落到日出(推荐)自动启用Ubuntu中的Night Light,或者在需要时使用状态菜单。 您还可以设置自定义时间表以匹配您的睡眠模式。
要尝试此功能,请前往设置>设备>显示,然后选中“夜灯”旁边的框。
8.安装一个更好的Ubuntu主题
看到上面的桌面? 这与Ubuntu 18.04安装相同,但它使用了不同的GTK主题。
Ubuntu的默认主题叫做’Ambiance’。 自引入以来并没有多大变化……
所以在安装Ubuntu 18.04之后我要做的最重要的事情之一是将GTK主题改为更现代的东西。
为Ubuntu提供新感觉的最简单方法是从Ubuntu软件安装Communitheme。
snap://communitheme/
安装完成后,只需注销当前会话,然后从登录屏幕中选择“Ubuntu with communitheme snap”。
9.探索GNOME扩展
正如我们在Ubuntu 18.04评论中指出的那样,Ubuntu切换到GNOME Shell桌面是一件大事。
有很多优点和缺点,但是如果您喜欢在桌面上添加额外的功能,则定义是一种方式。
您可以安装和使用GNOME Extensions网站上免费提供的数百种精彩扩展。
像GNOME桌面的Web浏览器插件扩展一样,可以快速添加额外的功能和其他功能。 或者,如果你更勇敢,甚至可以改变桌面的外观:
带有GNOME扩展的Ubuntu 18.04
您也可以使用浏览器安装GNOME扩展。 这意味着你不需要与tarball混淆或手动下载。
要开始,您需要安装1)Web浏览器加载项(网站会提示您执行此操作),以及2)桌面上的chrome-gnome-shell主机连接器(尽管“chrome” 在它与Firefox的合作名称中):
apt://chrome-gnome-shell/
完成后,您可以在Firefox或Google Chrome中浏览GNOME扩展网站。 当你看到一个你想尝试的扩展时,只需将切换按钮从’off’滑动到’on’来提示安装。
但也有更多可用的。
- 有一些最好的GNOME扩展可用包括:
- Dash to Panel – 将顶部吧和启动器结合到一个面板中
- 像素节省 – 减小最大化窗口标题的大小
- 弧形菜单 – 将传统的应用程序菜单添加到桌面
- Gsconnect – 无线连接Android到Ubuntu桌面
- 截图工具 – 采取屏幕片段并上传到云端
在评论中分享您最喜爱的GNOME扩展。
10. Stock up on Snap Apps
无论使用哪种发行版,Snaps对于应用程序开发人员来说都是将软件分发给Linux用户的绝佳方式。
Ubuntu 18.04 LTS可通过Ubuntu软件中心访问Snap Store。
对于LTS版本来说,Snap是一个大问题,因为它们允许应用程序开发人员比标准repo允许的更频繁地发布应用程序更新。
您可以从Snap Store安装一些众所周知的流行软件的最新版本,其中包括:
- Spotify – 音乐流媒体服务
- Skype – 视频通话
- Mailspring – 现代桌面电子邮件客户端
- Corebird – 适用于Linux的原生桌面Twitter应用程序
- Simplenote – 云支持笔记
- VLC – 不需要介绍的媒体播放器
11.使用Flatpak
Snaps不是唯一的“通用”包装格式。 Flatpak还使应用程序开发人员可以安全安全地将应用程序分发给Linux用户。
Ubuntu 18.04支持Flatpak,但它不是开箱即用的。 要在Ubuntu上使用Flatpak应用程序,您需要安装以下软件包:
Install Flatpak on Ubuntu 18.04 LTS
完成后,您需要安装Flathub存储库。 这是准官方Flatpak应用商店。
您可以按照Flatpak网站上的官方设置指南进行操作。 或者,当您第一次从Flathub应用商店网站下载应用程序时,Flathub repo,您想要的应用程序以及它需要运行的任何运行时都会自动进入。
使用Flathub,您可以安装最新版本的流行应用程序,例如Skype(Skype,Spotify,LibreOffice,VLC和Visual Studio Code)。
Flathub提供了其他一些软件,其中包括:
- Audacity – 开源音频编辑器
- Geary – 开源桌面电子邮件应用程序
- Discord – 闭源语音聊天
- FIleZilla – 开源FTP和SSH客户端
- Lollypop – 开放源码的Linux音乐播放器
- Kdenlive – 开源视频编辑器
如果您开始尝试取消PPA和外部PPA的诱惑,那么您可能需要从Flatpak,Snap或主档案中获取所需的所有内容。
如何从Ubuntu 17.10或Ubuntu 16.04 LTS升级到Ubuntu 18.04 LTS https://www.linuxidc.com/Linux/2018-04/152061.htm
Ubuntu 18.04 LTS将让用户在正常安装和最小安装之间进行选择 https://www.linuxidc.com/Linux/2018-04/151835.htm
在Ubuntu 18.04 LTS中实现Ubuntu新“最小安装”功能 https://www.linuxidc.com/Linux/2018-03/151115.htm
Ubuntu 18.04 LTS(Bionic Beaver)正式发布 https://www.linuxidc.com/Linux/2018-04/152087.htm
更多Ubuntu相关信息见Ubuntu 专题页面 https://www.linuxidc.com/topicnews.aspx?tid=2
本文永久更新链接地址:https://www.linuxidc.com/Linux/2018-04/152109.htm
https://blog.csdn.net/sitebus/article/details/83994430
最近在学习以太坊,就把一点学习笔记记录分享下来,希望对刚入门跟我一样迷茫的人有点帮助。
首先,所有需要用到的指令都在https://github.com/ethereum/go-ethereum/wiki/JavaScript-Console ,多记住一些方法方便使用
第一步:按照官方文档,安装好Geth客户端(https://github.com/ethereum/go-ethereum/wiki/Building-Ethereum),这个比较简单。
第二步:搭建自己的私有链
搭建私有链之前应该准备的东西:
Custom Genesis File
Custom Data Directory
Custom NetworkID
(Recommended) Disable Node Discovery
Genesis file: 创世区块是所有区块的根,区块链开始的地方--第一块、区块0、以及仅有的一块没有父区块的区块。协议保证了不会有其他节点根你的版本的区块链达成一致,除非他们跟你有相同的创世区块,因此,只要你想,你就可以创建任意多个私有测试区块链。
CustomGenesis.json
{
"nonce": "0x0000000000000042", "timestamp": "0x0",
"parentHash": "0x0000000000000000000000000000000000000000000000000000000000000000",
"extraData": "0x0", "gasLimit": "0x8000000", "difficulty": "0x400",
"mixhash": "0x0000000000000000000000000000000000000000000000000000000000000000",
"coinbase": "0x3333333333333333333333333333333333333333", "alloc": { }
}
稍后你将会用到这个文件:geth init /path/to/CustomGenesis.json
用于私有网络的命令行参数
--nodiscover 使用这个参数,你的节点就不会被其他人发现,除非手动添加你的节点。否则,就只有一个被无意添加到一个陌生区块链上的机会,那就是跟你有相同的genesis文件和networkID。
--maxpeers 0 如果你不想有人连上你的测试链,就用maxpeers 0。或者,你可以调整参数,当你确切的知道有几个节点要连接上来的时候。
--rpc 允许RPC操作你的节点。这个参数在Geth上是默认的。
--rpcapi "db,eth,net,web3" 这个命令指示了允许通过RPC访问的命令。默认情况下,Geth允许web3。
--rpcport "8080"
--rpccorsdomain "http://chriseth.github.io/browser-solidity/"
--datadir "/home/TestChain1" 私有链存放路径(最好跟公有链路径不同)
--port "30303" 网络监听端口,用来和其他节点手动连接
--identity “TestnetMainNode" 用来标识你的节点的,方便在一大群节点中识别出自己的节点
了解完上面这几个内容之后,就可以开始搭建自己的私有链了,用如下命令:
geth --identity "MyNodeName" --rpc --rpcport "8080" --rpccorsdomain "*" --datadir "/home/to/TestCahin1" --port "30303" --nodiscover --rpcapi "db,eth,net,web3" --networkid 1999 init /path/to/CustomGenesis.json
上面这条命令就初始化了创世区块,存放区块链数据的路径"/home/to/TestCahin1"根据自己需要修改一下。/path/to/CustomGenesis.json为存放CustomGenesis.json的地方。下面进入geth客户端:
geth --identity "MyNodeName" --rpc --rpcport "8080" --rpccorsdomain "*" --datadir "/home/to/TestCahin1" --port "30303" --nodiscover --rpcapi "db,eth,net,web3" --networkid 1999 console
现在就进入到了自己的私有链中,启动成功之后会显示如下图:
我的就存放在自己用户目录下的etherTest目录下。如果觉得每次进入客户端时要写这么一大堆指令很麻烦,完全可以把它写到一个文件中,给文件赋予可执行权限,就不必这么麻烦了。例如,我把这个指令写在了gethLaunch文件下:
#!/bin/bash
geth --identity "asurily" --rpc --rpcport "8080" --rpccorsdomain "*" --datadir ~/etherTest --port "30303" --nodiscover --rpcapi "db,eth,net,web3" --networkid 1999 console
然后执行chmod +x gethLaunch
这样我就不必每次都都输入那么一长串了,直接输入gethLaunch就可以了。
第三步、创建与部署智能合约
1、首先得有一个有ether的账户
私有链中,ether很容易获得。用personal.newAccount("111")创建一个账户,111为密码。然后可以用eth.accounts查看所有的账户。
可以看见我创建成功,并且查看了有几个账户。
以太坊中默认第一个地址为今后的挖矿分配奖金的地址,当然可以修改这个地址。miner.setEtherbase(eth.accounts[1])进行地址更换;
刚创建的账户中余额为0,可以用eth.getBalance("0xa65bf431f4f07a22296dc93a7e6f4fe57642bee6")查看余额。如果是第一个地址,启用挖矿miner.start(),稍等一下就能有余额了。
如果你不想进行挖矿,也有一个方法获得ether,就是在CustomGenesis.jso文件中加入
"alloc":
{
"<your account address e.g. 0x1fb891f92eb557f4d688463d0d7c560552263b5a>":
{ "balance": "20000000000000000000" }
}
然后再重新初始化,就能在你的账户中出现20个ether。
2、创建和部署智能合约
我就是部署的官网上的示例。
1)编写智能合约源代码:source = "contract test { function multiply(uint a) returns(uint d) { return a * 7; } }"
2)编译:contract = eth.compile.solidity(source).test。本来编译之后得到的是一个map类型,test就是那个key,所以这样就能得到相应的对象了。
保存下其中的code和abiDefinition,后面会用上:
code = contract.code
abi = contract.info.abiDefinition
3)创建智能合约对象:MyContract = eth.contract(abi)。
4)部署合约。部署合约就是向以太坊上发送一个交易,目的地址不写就是发送给区块链。
contract = MyContract.new(arg1, arg2, ..., {from: primaryAddress, data: evmByteCodeFromPreviousSection})
例如:contract = MyContract.new({from:eth.accounts[0],data:code})
此时,可能会提示你账户不可用,就是没有解锁,用personal.unlockAccount()解锁即可。然后在部署,会得到如下所示:
如上所示,此时的地址是undefined,因为交易才发送出去,没有矿工挖矿,没有写进区块链,所以还不知道。现在可以用txpool.status查看到
启动挖矿,把交易写进区块链。miner.start(),然后关闭挖矿miner.stop()
挖矿之后,交易就写进区块链了。此时再查看contract就能看见有地址了:
至此,合约成功部署在了以太坊上。
5)与合约交互
我们把合约部署到以太坊上不是目的,目的是能与部署在以太坊上的合约进行交互。
与合约交互要用到两个东西,abi和address。abi(应用程序二进制接口)用来创建合约对象;合约地址address用来定位在以太坊上的那个地址的合约。
创建合约对象:Multiply7 = eth.contract(abi);
定位在addres处的那个合约:myMultiply7 = Multiply7.at(address)
调用合约中的方法,应该有两种方式进行调用,一是call(),它直接返回结果,不会写进区块链;二是sendTransaction(),它是一笔交易,会写到区块链中,返回值是交易的哈希值。
成功得到结果。
第四步、再次调用部署好的合约
之前一直没有弄明白,既然合约都已经部署好了在区块链上,那么下次肯定还会再次调用它,但是我一直都不知道怎么调用它。虽然现在也不怎么明白,好像有register之类的方法,还没完全弄清楚。现在我的笨方法就是保存下来合约地址根合约的abi。既然调用合约时的两个重要步骤就是用abi创建合约对象和定位区块链中合约,所以就保存下来abi和address。
退出私有链,然后重新进入,那么之前所有的变量都不存在了。
记录abi:
记录地址:
然后就能成功调用address处的合约了。
方法特别笨,手动保存了abi和address,肯定还有别的方法,再接再厉。
---------------------
作者:yooliee
来源:CSDN
原文:https://blog.csdn.net/yooliee/article/details/72818932
版权声明:本文为博主原创文章,转载请附上博文链接!
突然WORD/EXCEL无法输入中文。这就怪事了。怎么办?想想自己干了什么?好像什么也没干……
上网搜索了一下,找到了一个解决办法:WORD,开始,WORD选项,高级,去掉“输入法控制处于活动状态”。重启WORD,还是不能输入。
于是使用sudo apt autoremove,清理了一下无用软件,还是不能输入。
想想自己曾经安装过freeme,进入.wine目录删除之。还是不能输入。
重启电脑, 终于可以输入中文了。哪个原因导致的?可能都有,也可能是必须重启。供大家参考。
---------------------
作者:柳鲲鹏
来源:CSDN
原文:https://blog.csdn.net/quantum7/article/details/84392596
版权声明:本文为博主原创文章,转载请附上博文链接!
https://blog.csdn.net/lainegates/article/details/41011499
卸载自带office sudo apt-get remove --purge libreoffice*
打印机驱动下载地址
https://sourceforge.mirrorservice.org/h/hp/hplip/hplip/3.19.3/
hplip-3.19.3.run 2019-03-27 05:40 24M
假如文件在桌面
1.cd ~/desktop
2.chmod +x XXX.run
3.sudo ./XXX.run
Ubuntu 16.04 蓝牙4.0自动连接
在安装ubuntu16.04 之后,使用自带的蓝牙连接鼠标,死活不成功,于是百度查找半天也完整的答案,折腾了半天,总结如下:
1、sudo apt-get install blueman bluez*
2、vim /etc/bluetooth/main.conf
去掉行[Policy]和AutoEnable前的注释
3、sudo vi /lib/udev/rules.d/50-bluetooth-hci-auto-poweron.rules
每行都加上 # 开头,其实也可以删除了这个文件。
4、重启电脑,然后,命令行输入:
#bluetoothctl
---------------------
作者:ycy_dy
来源:CSDN
原文:https://blog.csdn.net/ycy_dy/article/details/80715074
版权声明:本文为博主原创文章,转载请附上博文链接!
作者:徐子言
链接:https://www.jianshu.com/p/bb10f487f6fe
来源:简书
安装好django后,建立一下hello.py文件:
import os
import sys
from django.conf import settings
DEBUG = os.environ.get('DEBUG', 'on') == 'on'
SECRET_KEY = os.environ.get('SECRET_KEY', os.urandom(32))
ALLOWED_HOSTS = os.environ.get('ALLOWED_HOSTS', 'localhost').split(',')
settings.configure(
DEBUG=DEBUG,
SECRET_KEY=SECRET_KEY,
ALLOWED_HOSTS=ALLOWED_HOSTS,
ROOT_URLCONF=__name__,
MIDDLEWARE_CLASSES=(
'django.middleware.common.CommonMiddleware',
'django.middleware.csrf.CsrfViewMiddleware',
'django.middleware.clickjacking.XFrameOptionsMiddleware',
),
)
from django.conf.urls import url
from django.core.wsgi import get_wsgi_application
from django.http import HttpResponse
def index(request):
return HttpResponse('Hello World')
urlpatterns = (
url(r'^$', index),
)
application = get_wsgi_application()
if __name__ == "__main__":
from django.core.management import execute_from_command_line
execute_from_command_line(sys.argv)
运行python hello.py runserver 0.0.0.0:8000看看效果
创建项目–Helloworld
创建项目:
django-admin.py startproject HelloWorld
项目结构:
|-- HelloWorld —》 项目的容器
| |-- __init__.py -》 一个空文件,告诉 Python 该目录是一个 Python 包
| |-- settings.py -》 该 Django 项目的设置/配置
| |-- urls.py -》该 Django 项目的 URL 声明; 一份由 Django 驱动的网站"目录"
| `-- wsgi.py -》 一个 WSGI 兼容的 Web 服务器的入口,以便运行你的项目
`-- manage.py -》 一个实用的命令行工具,可让你以各种方式与该 Django 项目进行交互
1
2
3
4
5
6
启动项目:
python manage.py runserver 0.0.0.0:8000 默认端口8000
配置视图和url:
在先前创建的 HelloWorld 目录下的 HelloWorld 目录新建一个 view.py 文件,并输入代码:
from django.http import HttpResponse
def hello(request):
return HttpResponse("Hello world ! ")
1
2
3
4
绑定 URL 与视图函数,打开 urls.py 文件,删除原来代码,输入以下代码:
from django.conf.urls import url
from . import view
urlpatterns = [
url(r'^$', view.hello),
]
1
2
3
4
5
6
启动服务器,并访问 http://127.0.0.1:7001/
这里写图片描述
---------------------
作者:zaiou
来源:CSDN
原文:https://blog.csdn.net/qq_34300892/article/details/81541682
版权声明:本文为博主原创文章,转载请附上博文链接!
在命令行输入
python manage.py createsuperuser
按照提示输入即可
记得先初始化表。
django>1.7
python manage.py makemigrations
python manage.py migrate
django<1.7
python manage.py syncdb
通过pip安装mysqlclient失败报错,报错代码有一大堆。。。 我就不上图了。
到下面链接安装相应的版本。例如 python3.6 就下载cp36
https://www.lfd.uci.edu/~gohlke/pythonlibs/#mysqlclient
Pycharm中,设置--项目--Project Interpreter--Project Interpreter,使用Anaconda3后,Python就是3.6的了。点旁边的+号增加类库,再搜索Tensorflow-gpu,把这个类库增加进来。只要以前在Anaconda3安装成功过,这里就可以使用的了。
Python-PyCharm安装numpy和matplotlib
得益于原文作者(http://www.cnblogs.com/zhusleep/p/4733369.html)的方法,成功地在Pycharm下导入了numpy和matplotlib等pyton中常用的库。
方法的根本出发点在于,Pycharm本身缺少numpy和matplotlib这些库,而另一个Python的开发环境Anaconda则自带了300多种常见的库。所以想在pycharm中使用Anaconda自带的库。实现这一“借用”的则是Pycharm中对 “Project Interpreter”的设置,该设置是设定Pychar使用哪一个python编译器。那么只要将该interpreter设置为Anaconda下的python.exe,就可以将Anaconda下众多的库导入到Pycharm中。
来自:
http://blog.csdn.net/yangyangyang20092010/article/details/49359993
Source--Show Python Environment---Change Settings---把3.6版本改为3.5.4就可使用Numpy了。
ubuntu14.04系统会自带python2.7,请不要卸载它。不同版本的python可以共存在一个系统上。
卸载之后,桌面系统会被影响。
(1)sudo add-apt-repository ppa:fkrull/deadsnakes
(2)sudo apt-get update
(3)sudo apt-get install python3.5
(4)sudo cp /usr/bin/python /usr/bin/python2.7.12_bak,先备份
(5)sudo rm /usr/bin/python,删除
(6)sudo ln -s /usr/bin/python3.5 /usr/bin/python,默认设置成python3.5,重建软链接这样在终端中输入python默认就是 3.5版本了
来自
http://blog.csdn.net/bebemo/article/details/51350484
1.输入sudo apt-get install python-pip python-dev时提示无法获得锁....错误提示
2.输入强制解锁命令
sudo rm /var/cache/apt/archives/lock
sudo rm /var/lib/dpkg/lock
再安装,问题解决。
1.下载电脑店U盘启动制作工具
2.插入U盘,把Ubuntu的ISO文件制作在U盘里。
3.插入U盘启动,出现无法启动错误提示,按TAB键,输入live
4.安装是,选择其他选项,自己选择根目录和交换空间安装。
http://mirrors.zju.edu.cn/ubuntu-releases/16.04/
财经类院校全国一共有49所。数量虽然不多,但是,历来是报考竞争最激烈的院校之一。到底是哪49所呢?各自的实力又是怎样的呢?想报考财经类专业的同学一定不能错过。名校当然不好考,但比较不错的仅次于名校的院校有哪些呢?各个省市都有哪些财经类院校,其实力又是如何?且看最新排行榜。
注:数据来源于艾瑞深大学研究团队编撰出版的《2015年中国大学评价报告》。
考研报考从来都不是拍脑袋能说了算的。你对自己的轻率,对自己的不负责任,都太来所有苦果只能由你承担。人生大事,岂能凭感觉?关键决策必须用数据说话。无论如何,以上排名自有它的排名标准,仅供大家参考。院校排名固然重要,但最重要的还是你的排名!如何提高呢?
文章来源学府网校 转载请注明出处
开始学习使用 elasticsearch, 把步骤记录在这里:
最大的特点:
1. 数据库的 database, 就是 index
2. 数据库的 table, 就是 tag
3. 不要使用browser, 使用curl来进行客户端操作. 否则会出现 java heap ooxx...
curl: -X 后面跟 RESTful : GET, POST ...
-d 后面跟数据。 (d = data to send)
1. create:
指定 ID 来建立新记录。 (貌似PUT, POST都可以)
$ curl -XPOST localhost:9200/films/md/2 -d '
{ "name":"hei yi ren", "tag": "good"}'
使用自动生成的 ID 建立新纪录:
$ curl -XPOST localhost:9200/films/md -d '
{ "name":"ma da jia si jia3", "tag": "good"}'
2. 查询:
2.1 查询所有的 index, type:
$ curl localhost:9200/_search?pretty=true
2.2 查询某个index下所有的type:
$ curl localhost:9200/films/_search
2.3 查询某个index 下, 某个 type下所有的记录:
$ curl localhost:9200/films/md/_search?pretty=true
2.4 带有参数的查询:
$ curl localhost:9200/films/md/_search?q=tag:good
{"took":7,"timed_out":false,"_shards":{"total":5,"successful":5,"failed":0},"hits":{"total":2,"max_score":1.0,"hits":[{"_index":"film","_type":"md","_id":"2","_score":1.0, "_source" :
{ "name":"hei yi ren", "tag": "good"}},{"_index":"film","_type":"md","_id":"1","_score":0.30685282, "_source" :
{ "name":"ma da jia si jia", "tag": "good"}}]}}
2.5 使用JSON参数的查询: (注意 query 和 term 关键字)
$ curl localhost:9200/film/_search -d '
{"query" : { "term": { "tag":"bad"}}}'
3. update
$ curl -XPUT localhost:9200/films/md/1 -d { ...(data)... }
4. 删除。 删除所有的:
$ curl -XDELETE localhost:9200/films
traceback:
http://sg552.iteye.com/blog/1567047
elasticsearch的config文件夹里面有两个配置文件:elasticsearch.yml和logging.yml,第一个是es的基本配置文件,第二个是日志配置文件。
elasticsearch.yml文件中可以配置的如下:
cluster.name: elasticsearch
配置es的集群名称,默认是elasticsearch,es会自动发现在同一网段下的es,如果在同一网段下有多个集群,就可以用这个属性来区分不同的集群。
node.name: "Franz Kafka"
节点名,默认随机指定一个name列表中名字,该列表在es的jar包中config文件夹里name.txt文件中,其中有很多作者添加的有趣名字。
node.master: true
指定该节点是否有资格被选举成为node,默认是true,es是默认集群中的第一台机器为master,如果这台机挂了就会重新选举master。
node.data: true
指定该节点是否存储索引数据,默认为true。
index.number_of_shards: 5
设置默认索引分片个数,默认为5片。
index.number_of_replicas: 1
设置默认索引副本个数,默认为1个副本。
path.conf: /path/to/conf
设置配置文件的存储路径,默认是es根目录下的config文件夹。
path.data: /path/to/data
设置索引数据的存储路径,默认是es根目录下的data文件夹,可以设置多个存储路径,用逗号隔开,例:
path.data: /path/to/data1,/path/to/data2
path.work: /path/to/work
设置临时文件的存储路径,默认是es根目录下的work文件夹。
path.logs: /path/to/logs
设置日志文件的存储路径,默认是es根目录下的logs文件夹
path.plugins: /path/to/plugins
设置插件的存放路径,默认是es根目录下的plugins文件夹
bootstrap.mlockall: true
设置为true来锁住内存。因为当jvm开始swapping时es的效率会降低,所以要保证它不swap,可以把ES_MIN_MEM和 ES_MAX_MEM两个环境变量设置成同一个值,并且保证机器有足够的内存分配给es。同时也要允许elasticsearch的进程可以锁住内 存,linux下可以通过`ulimit -l unlimited`命令。
network.bind_host: 192.168.0.1
设置绑定的ip地址,可以是ipv4或ipv6的,默认为0.0.0.0。
network.publish_host: 192.168.0.1
设置其它节点和该节点交互的ip地址,如果不设置它会自动判断,值必须是个真实的ip地址。
network.host: 192.168.0.1
这个参数是用来同时设置bind_host和publish_host上面两个参数。
transport.tcp.port: 9300
设置节点间交互的tcp端口,默认是9300。
transport.tcp.compress: true
设置是否压缩tcp传输时的数据,默认为false,不压缩。
http.port: 9200
设置对外服务的http端口,默认为9200。
http.max_content_length: 100mb
设置内容的最大容量,默认100mb
http.enabled: false
是否使用http协议对外提供服务,默认为true,开启。
gateway.type: local
gateway的类型,默认为local即为本地文件系统,可以设置为本地文件系统,分布式文件系统,hadoop的HDFS,和amazon的s3服务器,其它文件系统的设置方法下次再详细说。
gateway.recover_after_nodes: 1
设置集群中N个节点启动时进行数据恢复,默认为1。
gateway.recover_after_time: 5m
设置初始化数据恢复进程的超时时间,默认是5分钟。
gateway.expected_nodes: 2
设置这个集群中节点的数量,默认为2,一旦这N个节点启动,就会立即进行数据恢复。
cluster.routing.allocation.node_initial_primaries_recoveries: 4
初始化数据恢复时,并发恢复线程的个数,默认为4。
cluster.routing.allocation.node_concurrent_recoveries: 2
添加删除节点或负载均衡时并发恢复线程的个数,默认为4。
indices.recovery.max_size_per_sec: 0
设置数据恢复时限制的带宽,如入100mb,默认为0,即无限制。
indices.recovery.concurrent_streams: 5
设置这个参数来限制从其它分片恢复数据时最大同时打开并发流的个数,默认为5。
discovery.zen.minimum_master_nodes: 1
设置这个参数来保证集群中的节点可以知道其它N个有master资格的节点。默认为1,对于大的集群来说,可以设置大一点的值(2-4)
discovery.zen.ping.timeout: 3s
设置集群中自动发现其它节点时ping连接超时时间,默认为3秒,对于比较差的网络环境可以高点的值来防止自动发现时出错。
discovery.zen.ping.multicast.enabled: false
设置是否打开多播发现节点,默认是true。
discovery.zen.ping.unicast.hosts: ["host1", "host2:port", "host3[portX-portY]"]
设置集群中master节点的初始列表,可以通过这些节点来自动发现新加入集群的节点。
下面是一些查询时的慢日志参数设置
index.search.slowlog.level: TRACE
index.search.slowlog.threshold.query.warn: 10s
index.search.slowlog.threshold.query.info: 5s
index.search.slowlog.threshold.query.debug: 2s
index.search.slowlog.threshold.query.trace: 500ms
index.search.slowlog.threshold.fetch.warn: 1s
index.search.slowlog.threshold.fetch.info: 800ms
index.search.slowlog.threshold.fetch.debug:500ms
index.search.slowlog.threshold.fetch.trace: 200ms
来自:http://blog.csdn.net/hi_kevin/article/details/38079325
摘要: Elasticsearch基础教程 翻译:潘飞(tinylambda@gmail.com) 基础概念 Elasticsearch有几个核心概念。从一开始理解这些概念会对整个学习过程有莫大的帮助。 接近实时(NRT) Elasticsearch是一...
阅读全文
windows下安装elasticsearch
1.下载elasticsearch,地址:http://www.elasticsearch.org/overview/elkdownloads/
2.配置环境变量path,指向elasticsearch的bin
3.发布为service。
打开dos窗口输入:service install [service-name]
启动elasticsearch:service start [service-name]
停止elasticsearch:service stop [service-name]
移除elasticsearch: service remove [service-name]
4.在浏览器访问:http://localhost:9200,访问成功即安装成功
5.安装head插件:在dos窗口输入:plugin -install mobz/elasticsearch-head,测试 http://localhost:9200/_plugin/head
安装bigdesk插件:在dos窗口输入:plugin -install lukas-vlcek/bigdesk,测试 http://localhost:9200/_pugin/bigdesk
来自:
http://blog.csdn.net/hi_kevin/article/details/38079007
set-id-enter 去除开机即1号警戒状况已发生的警报声。
来自:http://www.cnblogs.com/shishm/archive/2011/12/28/2305397.html
今天在eclipse中编写pom.xml文件时,注释中的中文被eclipse识别到错误:Invalid byte 1 of 1-byte UTF-8 sequence,曾多次遇到该问题,问题的根源是:
The cause of this is a file that is not UTF-8 is being parsed as UTF-8. It is likely that the parser is encountering a byte value in the range FE
-FF
. These values are invalid in the UTF-8 encoding.
但这次很诡异,我使用notepad++将pom.xml的编码保存为“UTF-8无BOM”形式,pom.xml文件内的encoding属性设
置为“UTF-8”,问题依旧啊,郁闷了,难道上述的理论有问题?还是eclipse的bug呢?在网上看了半天,基本都是这么说的。
第一,可以直接在XML文件中更改UTF-8为GBK或GB2312
<?xml version="1.0" encoding="GB2312"?>
第二,可以在Eclipse中更改,在 eclipse 的功能表 [Project]→[Properties],點選 [Resources],在右邊的「Text file encoding」,把原來是系統預設的編碼,改為 「UTF-8」。
第一种方案可行,属于逃避的方法,放弃!第二种也不是解决我这种问题的,继续网上搜索惊奇的发现,原来解决方案是这样的:
把xml的encoding属性值UTF-8改为UTF8,我操,太伤蛋了
最近需要将一个项目部署到触控一体机,客户要求所有网页文本框输入必须支持手写输入,之前一直没有实现过这样的功能,于是让组员上网搜索了一下,结果发现百度输入法提供网页文本框手写输入的js调用api,是利用flash调用汉王字库来实现的。下面是详细的代码。
<!doctype html><html><head><meta http-equiv=”Content-Type” content=”text/html;charset=gb2312″><title>网页文本框手写输入</title& gt;<style>#sx{color:#00C;text- decoration:underline;cursor:pointer;}</style>< /head><body>单击“手写”可以在手写区输入,然后点击备选区的相应文字,完成输入!<br><form name=”f” action=”http://www.okajax.com”><input type=”text” name=”wd” id=”kw” maxlength=”100″><input type=”submit” value=”提交” id=”su”><span id=”sx”>手写</span></form><script> var w = window,d = document,n = navigator,k = d.f.wdif (w.attachEvent) {w.attachEvent(“onload”, function() {k.focus();})} else {w.addEventListener(‘load’, function() {k.focus()},true)};var hw = {};hw.i = d.getElementById(“sx”);var il = false;if (/msie (\d+\.\d)/i.test(n.userAgent)) {hw.i.setAttribute(“unselectable”, “on”)} else {var sL = k.value.length;k.selectionStart = sL;k.selectionEnd = sL}hw.i.onclick = function(B) {var B = B || w.event;B.stopPropagation ? B.stopPropagation() : (B.cancelBubble = true);if (d.selection && d.activeElement.id && d.activeElement.id == “kw”) {hw.hasF = 1} else {if (!d.selection) {hw.hasF = 1}}if (!il) {var A = d.createElement(“script”);A.setAttribute(“src”, “http://www.baidu.com/hw/hwInput.js”); d.getElementsByTagName(“head”)[0].appendChild(A);il = true;}}; </script>实用为王,手写输入法让上网更加简单
</body></html>
如果你直接复制以上代码并保存为html在本地测试的时候,你可能会发觉,手写功能失效,只是可以手写,但无法选择文字,而其他功能也无法操作。又或者你会得到如下图的Adobe Flash Player安全性警示框。
网页文本框手写输入
如何解决这个问题?你可以在windows XP的C:\Documents and Settings\用户名\Application Data\Macromedia\Flash Player\#Security\FlashPlayerTrust目录路径(注:如果不存在FlashPlayerTrust文件夹就创建一个,此 外,如果找不到Application Data目录的话,可以在文件夹-》查看里选择显示所有文件和文件夹)里增加一个信任配置文件。新建一记事本,打开并写上你的html文件所在的目录, 如: F:, 然后保存为shouxieshuru.cfg。再打开html时,手写输入功能完全起作用了。
参考资料:http://www.okajax.com/a/201009/shouxieshuru.html
http://www.code-design.cn/article/20090621/136.aspx
来自:
http://www.laokboke.net/2011/08/10/wenbenkuang-shouxieshuru/?utm_source=rss
摘要: /////////////////////////////////////////////////////////////////////////////////////////////Page1简介: 是否需要分发文档、创建电子图书或者把喜欢的博客文章存档?EPUB 是一种开放式的数字图书规范,以常用的技术如 XML、CSS 和 XHTML 为基础,EPUB 文件可在便携式的 e-i...
阅读全文
摘要: ncx文件是epub电子书的又一个核心文件,用于制作电子书的目录,其文件的命名通常为toc.ncx。ncx文件是一个XML文件,该标准由DAISY Consortium发布(参见http://www.daisy.org)。下列是一个toc.ncx文件的实例,其中红色部分为必需。<navMap>元素列出了目录的名称和链接地址。其子元素<navPoint>支持嵌套。...
阅读全文
摘要: OPF文档是epub电子书的核心文件,且是一个标准的XML文件,依据OPF规范,主要由五个部分组成:1、<metadata>,元数据信息,由两个子元素组成:<dc-metadata>,其元素构成采用dubline core(DC)的15项核心元素,包括:<title>:题名<creator>:责任者<subject>:主题词或关键词<...
阅读全文
epub格式电子书遵循IDPF推出的OCF规范,OCF规范遵循ZIP压缩技术,即epub电子书本身就是一个ZIP文件,我们将epub格式电子书的后缀.epub修改为.zip后,可以通过解压缩软件(例如winrar、winzip)进行浏览或解压处理。一个未经加密处理的epub电子书以三个部分组成,其文件结构如下图所示:
1、文件:mimetype
每一本epub电子书均包含一个名为mimetype的文件,且内容不变,用以说明epub的文件格式。文件内容如下:
application/epub+zip//注释,表示可以用epub工具和ZIP工具打开 |
2、目录:META-INF
依据OCF规范,META-INF用于存放容器信息,默认情况下(即加密处理),该目录包含一个文件,即container.xml,文件内容如下:
<?xml version='1.0' encoding='utf-8'?> <container xmlns="urn:oasis:names:tc:opendocument:xmlns:container" version="1.0"> <rootfiles> <rootfile full-path="OEBPS/content.opf" media-type="application/oebps-package+xml" /> </rootfiles> </container> |
container.xml的主要功能用于告诉阅读器,电子书的根文件(rootfile)的路径(红色部分)和打开放式,一般来讲,该container.xml文件也不需要作任何修改,除非你改变了根文件的路径和文件名称。
除container.xml文件之外,OCF还规定了以下几个文件:
(1)[manifest.xml],文件列表(2)[metadata.xml],元数据(3)[signatures.xml],数字签名(4)[encryption.xml],加密(5)[rights.xml],权限管理对于epub电子书而言,这些文件都是可选的。
3、目录:OEBPS
OEBPS目录用于存放OPS文档、OPF文档、CSS文档、NCX文档,如果是制作中文电子书,则还包括ttf文档(即字体文档),OEBPS目录也可以建立相应的子目录,例如建立chapter目录,把各章节的OPS文档放在chapter目录之中。下图一本epub电子书OEBPS文档的实例图:
其中content.opf文件和toc.ncx文件为必需,其它文件可根据电子书的具体情况而定。
content.opf文件见博文OPF剖析
toc.ncx文件见博文toc.ncx剖析
来自:http://www.cnblogs.com/linlf03/archive/2011/12/13/2286029.html
一、什么是epub
epub是一个完全开放和免费的电子书标准。它可以“自动重新编排”的内容。
Epub文件后缀名:.epub
二、 epub组成
Epub内部使用XHTML(或者DTBook)来展现文件的内容;用一系列css来定义格式和版面设计; 然后把所有的文件压缩成zip包。
Epub格式中包含了DRM相关功能(目前epub引擎暂时不考虑drm相关信息)
EPub包括三项主要规格:
开放出版结构(Open Publication Structure,OPS)2.0,以定义内容的版面;
开放包裹格式(Open Packaging Format,OPF)2.0,定义以XML为基础的.epub档案结构; OEBPS容纳格式(OEBPS Container Format,OCF)1.0,将所有相关文件收集至ZIP压缩档案之中。
1. OPS:
用XHTML(或者DTBook)来构筑书的内容。
用一系列css来定义书的格式和版面设计。
支持 png、jpeg、gif、svg的图片格式。
2. OPF:
OPF 文件是 EPUB 规范中最复杂的元数据。它用来定义ops一系列内容组合到一起的机制,并为ebook提供了一些额外的结构和内容。Opf包含四个子元素:metadata, manifest, spine, guide。在OEBPS中的opf包含两个XML: .opf和.ncx
(一).opf
OPF包括以下内容:
1)metadata:epub的元数据,如title、language、identifier、cover等。其中,title 和 identifier这两个数据是必须的。
按照EPUB规范,identifier由数字图书的创建者定义,必须唯一。对于图书出版商来说,这个字段一般包括ISBN或者Library of Congress编号;也可以使用URL或者随机生成的唯一用户ID。注意:unique-identifier 的值必须和 dc:identifier 元素的 ID 属性匹配。
2)manifest:列出了package中所包含的所有文件(xhtml、css、png、ncx等)。EPUB 鼓励使用 CSS 设定图书内容的样式,因此 manifest 中也包含 CSS。注意:进入数字图书的所有文件都必须在 manifest 中列出。
3)spine:所有xhtml文档的线性阅读顺序。其中,spine的TOC属性必须包含在manifest列出来的.ncx的id。可以将 OPF spine 理解为是书中 “页面” 的顺序,解析的时候按照文档顺序从上到下依次读取 spine。
在spine中的每个 itemref 元素都需要有一个 idref 属性,这个属性和 manifest 中的某个 ID 匹配。
spine 中的 linear 属性表明该项是作为线性阅读顺序中的一项,还是和先后次序无关。有些阅读器可以将spine中linear=no的项作为辅助选项处理,有些阅读器则选择忽略这个属性。例如在下边的实例中,支持辅助选项处理的阅读器会依次列出titlepage、chapter01、chapter05,chapter02、chapter03、chapter04只在点击到(或者其他开启动作)之后才会显示。
但是对于支持打印的阅读器,需要忽略linear=no的属性,保证能够最完全的展示ops中的内容。
好的阅读器需要同时提供两种选择给用户。
(二).ncx
NCX 定义了数字图书的目录表。复杂的图书中,目录表通常采用层次结构,包括嵌套的内容、章和节。包含了TOC(tablet of content,提供了分段的一些信息)。
NCX的 <head> 标记中包含四个 meta 元素:
- uid: 数字图书的惟一 ID。该元素应该和 OPF 文件中的 dc:identifier 对应。
- depth:反映目录表中层次的深度。
- totalPageCount 和 maxPageNumber:仅用于纸质图书,保留 0 即可。
docTitle/text 的内容是图书的标题,和 OPF 中的 dc:title 匹配。
navMap 是 NCX 文件中最重要的部分,定义了图书的目录。navMap 包含一个或多个 navPoint 元素,每个 navPoint 都要包含下列元素:
- playOrder:说明文档的阅读顺序。和 OPF spine 中 itemref 元素的顺序相同。
- navLabel/text :给出该章节的标题。通常是章的标题或者数字。
- content :它的 src 属性指向包含这些内容的物理资源。就是 OPF manifest 中声明的文件。
- 还可以有一个或多个 navPoint 元素。NCX 使用嵌套的导航点表示层次结构的文档
(三)NCX 和 OPF spine 有什么不同?
两者很容易混淆,因为两个文件都描述了文档的顺序和内容。要说明两者的区别,最简单的办法就是拿印刷书来打比方:OPF spine 描述了书中的各个章节是如何实际连接起来的,比方说翻过第一章的最后一页就看到第二章的第一页。NCX 在图书的一开始描述了目录,目录肯定会包含书中主要的章节,但是还可能包含没有单独分页的小节。
一条法则是 NCX 包含的 navPoint 元素通常比 OPF spine 中的 itemref 元素多。实际上,spine 中的所有项都会出现在 NCX 中,但 NCX 可能更详细。
3. OCF:
OCF定义了文件是如何被打包成ZIP的,并且有两个额外的信息:
1)ASCII格式的mimetype文件。该文件必须包含application/epub+zip字符串,并且是ZIP压缩包的第一个文件。Mimetype要求是非压缩格式。
2)一个命名为META-INF的文件夹。这个文件夹中需要包含container.xml文件
4. Drm——需要在META-INF文件夹中包含rights.xml
总结起来,一个epub电子书的zip包含以下东西:
1、mimetype 文件,必须是压缩包的第一个文件。注意,Mimetype必须是非压缩格式。
2、meta-inf目录,里面至少包含一个container.xml 文件。
3、OEBPS目录(可以是别的名字,但建议用这个名字),包含了:
a) image子目录(不一定总有)存放了所有的图片文件
b) content.opf 文件名可以是其它的,扩展名一定是opf,就是一个xml格式的包内的文件列表
c) toc.ncx 目录文件,一个“逻辑目录”, 浏览控制文件.
d) 一些xhtml或html文件。就是书的内容。
简单 EPUB 档案的目录和文件结构:
mimetype
META-INF/
container.xml
OEBPS/
content.opf
title.html
content.html
stylesheet.css
toc.ncx
images/
cover.png
三、Epub电子图书获取网站
Feedbooks: http://www.feedbooks.com/books/top?range=month
掌上书苑: http://www.cnepub.com/index
COAY: http://www.coay.com
博酷网: http://www.pockoo.com/books/?format=EPUB&orderby=lastedit
新浪ipad数码资源 http://myphoto.tech.sina.com.cn/forumdisplay.php?fid=398
EpubBooks: http://www.epubbooks.com/books
四、Epub电子图书阅读器(比较软件)
Adobe digital Edition: http://www.adobe.com/products/digitaleditions/
Calibre: 开放源代码的电子书管理工具,支持windows、linux、osx等平台。也能在各种格式之间转换。http://calibre-ebook.com/
Aldiko:android上的epub阅读器。 http://www.aldiko.com/
五、 Epub电子图书编辑软件
epubBuilder:epubbuilder是国人自做软件,手工制作时还是很好用的,尤其是每个章节的制作和目录,比较方便,还提供了导入chm,txt,html文件的功能,比较人性化
ecub:http://www.juliansmart.com/ecub
l Calibre
l Adobe InDesign
l Stanza
l OpenBerg Rector
l ePUB check tool
l Convert uploads to ePUB
l Web2FB2
l Python converter
l DAISY Pipeline
六、创建一个EPUB文件
参考资料:http://www.ibm.com/developerworks/cn/xml/tutorials/x-epubtut/section3.html
1. 先建一个空的zip文件,可以取为任何名字,最好和你的书同名。
2、拷贝mimetype文件到包内,注意所谓拷贝,就是这个文件不要用压缩模式。
3、把其它的目录和文件用压缩模式放入zip包。
4、改文件扩展名为.epub
ok!一本epub电子书就制成了。
七、完整的EPUB规范
OPF规范:http://www.idpf.org/2007/opf/OPF_2.0_final_spec.html
OPS规范:http://www.idpf.org/2007/ops/OPS_2.0_final_spec.html
OEBPS规范:http://www.idpf.org/ocf/ocf1.0/download/ocf10.htm
来自:http://www.cnblogs.com/linlf03/archive/2011/12/13/2286218.html
在android-sdk-windows \ tools这个目录下找到这个emulator.exe,然后发送到桌面一个快捷方式,右键点击快捷方式的 属性,在“目标”框后边直接添加 -avd “AVD名称” -partition-size “你想要的ROM大小” ,即可。例如 D:\android-sdk-windows\tools\emulator.exe -avd MyAVD2.3.3 -partition-size 1024。其中“2.3.3”是我创建模拟器时模拟器的名称,1024即为ROM大小,要注意空格。 以后每次启动,就用这个快捷方式打开,这样rom就是1024的了。
来自:http://zhidao.baidu.com/question/323467729.html
第一步:视图——母版——幻灯片母版
(进去了就是母版编辑的界面)
第二步:格式——背景,弹出相应对话框,有个小三角形,点击一下会出现下拉选项,选择最下面一项“填充效果”——弹出图片添加对话框,点“选择图片”选择你需要的图片就行了……至于字体字号格式什么的直接在上面修改就行了
第三步:视图——普通,返回到原来的编辑界面。
来自:
http://zhidao.baidu.com/question/189625399.html?an=0&si=1
1.下载数据库http://fastdl.mongodb.org/win32/mongodb-win32-i386-1.6.5.zip
2.现在完成后解压目录,放到C盘下,然后按照如下选择“我的电脑->属性->高级->环境变量”,将“C:\mongodb\bin”这个路径放到环境变量内(如果添加环境变量可以去网上找).
3.选择"开始->运行",输入"cmd",在DOS窗口内输入“mongod -port 27017 -dbpath D:/deployment/mongoDb/data/db -logpath D:/deployment/mongoDb/data/log/logs.log ”,其中dbpath 为数据文件存储路径,logpath 为日志文件存储路径。
4.不要关闭上面的窗口,新打开一个DOS,输入“mongo->use admin->db.AddUser(username,password)”,username:数据库数据集的用户名,password数据库数据集操作的密码。
5.在两个DOS窗口内分别按“ctrl+c”,在第一个DOS窗口内输入“mongod -port 27017 -dbpath D:/deployment/mongoDb/data/db -logpath D:/deployment/mongoDb/data/log/logs.log -logappend -auth”的启动命令,auth是要求操作数据集是需要验证。
6.在第二个DOS窗口内,输入“mongo->use admin->db.auth(username,password)”,然后就可以对数据集进行操作(增、删、改)。
来自:http://www.hitb.com.cn/web/guest/bbs/-/message_boards/message/26944
首先在mongo官网下载Windows的版本
启动服务:mongod.exe --port 12345 --dbpath=c:\mongodb\db
显示一下信息:
Fri Dec 04 14:30:32 Mongo DB : starting : pid = 0 port = 12345 dbpath = c:\mongo
db\db master = 0 slave = 0 32-bit
** NOTE: when using MongoDB 32 bit, you are limited to about 2 gigabytes of data
** see http://blog.mongodb.org/post/137788967/32-bit-limitations for more
Fri Dec 04 14:30:32 db version v1.1.4-, pdfile version 4.5
Fri Dec 04 14:30:32 git version: c67c2f7dd681152f1784c8e1c2119b979e65881d
Fri Dec 04 14:30:32 sys info: windows (5, 1, 2600, 2, 'Service Pack 3') BOOST_LI
B_VERSION=1_35
Fri Dec 04 14:30:32 waiting for connections on port 12345
启动客户端:mongo.exe localhost:12345
检查是否正常:db.foo.save({a:1,b:9})
db.foo.find({a:1})
控制台显示:{ "_id" : ObjectId("4b18b5b56f40000000006cec"), "a" : 1, "b" : 9 }
添加数据:db.foo.save({a:1,b:9})
查询数据:db.foo.find({a:1}) //{a:1}是查询条件,当为空时查询所有
db.foo.findOne({a:1}) //显示出一条数据
删除数据:db.foo.remove({a:1}) //删除a=1的数据
表的数据量:db.foo.find().count()
显示数据指定的条数:db.foo.find().limit(n)
显示库名:db.foo.getDB()
获取索引值:db.foo.getIndexes()
表的统计:db.foo.stats()
删除表:db.foo.drop()
获取不重复的列:db.foo.distinct( key ) - eg. db.foo.distinct( 'x' )
忽略前面的几行:db.other.find({a:2}).skip(2)//忽略a=2中的前面2行
方法帮助:db.foo.help()
HELP
show dbs show database names
show collections show collections in current database
show users show users in current database
show profile show most recent system.profile entries with time >= 1ms
use <db name> set curent database to <db name>
db.help() help on DB methods
db.foo.help() help on collection methods
db.foo.find() list objects in collection foo
db.foo.find( { a : 1 } ) list objects in foo where a == 1
it result of the last line evaluated; use to further iterate
DB methods:
db.addUser(username, password)
db.auth(username, password)
db.cloneDatabase(fromhost)
db.commandHelp(name) returns the help for the command
db.copyDatabase(fromdb, todb, fromhost)
db.createCollection(name, { size : ..., capped : ..., max : ... } )
db.currentOp() displays the current operation in the db
db.dropDatabase()
db.eval(func, args) run code server-side
db.getCollection(cname) same as db['cname'] or db.cname
db.getCollectionNames()
db.getLastError() - just returns the err msg string
db.getLastErrorObj() - return full status object
db.getMongo() get the server connection object
db.getMongo().setSlaveOk() allow this connection to read from the nonmaster member of a replica pair
db.getName()
db.getPrevError()
db.getProfilingLevel()
db.getReplicationInfo()
db.getSisterDB(name) get the db at the same server as this onew
db.killOp() kills the current operation in the db
db.printCollectionStats()
db.printReplicationInfo()
db.printSlaveReplicationInfo()
db.printShardingStatus()
db.removeUser(username)
db.repairDatabase()
db.resetError()
db.runCommand(cmdObj) run a database command. if cmdObj is a string, turns it into { cmdObj : 1 }
db.setProfilingLevel(level) 0=off 1=slow 2=all
db.shutdownServer()
db.version() current version of the server
DBCollection help
db.foo.count()
db.foo.dataSize()
db.foo.distinct( key ) - eg. db.foo.distinct( 'x' )
db.foo.drop() drop the collection
db.foo.dropIndex(name)
db.foo.dropIndexes()
db.foo.ensureIndex(keypattern,options) - options should be an object with these possible fields: name, unique, dropDups
db.foo.find( [query] , [fields]) - first parameter is an optional queryfilter. second parameter is optional set of fields to return. e.g. db.foo.find( { x : 77 } , { name : 1 , x : 1 } )
db.foo.find(...).count()
db.foo.find(...).limit(n)
db.foo.find(...).skip(n)
db.foo.find(...).sort(...)
db.foo.findOne([query])
db.foo.getDB() get DB object associated with collection
db.foo.getIndexes()
db.foo.group( { key : ..., initial: ..., reduce : ...[, cond: ...] } )
db.foo.mapReduce( mapFunction , reduceFunction , <optional params> )
db.foo.remove(query)
db.foo.renameCollection( newName ) renames the collection
db.foo.save(obj)
db.foo.stats()
db.foo.storageSize() - includes free space allocated to this collection
db.foo.totalIndexSize() - size in bytes of all the indexes
db.foo.totalSize() - storage allocated for all data and indexes
db.foo.update(query, object[, upsert_bool])
db.foo.validate() - SLOW
db.foo.getShardVersion() - only for use with sharding
命令行
--help |
显示命令行参数 |
--nodb |
不连接数据库方式启动,稍后可以使用 new Mongo() 或 connect() 来建立连接 |
--shell |
从命令行运行完一个 .js 文件后,停留在shell中,而不是结束 |
特殊命令
非JavaScript的辅助指令:
help |
显示帮助 |
db.help() |
显示 db 方法帮助 |
db.myColl .help() |
显示聚集的方法帮助 |
show dbs |
打印服务器上所有数据库的列表 |
use dbname |
设置db变量来指明使用服务器上的 dbname 数据库 |
show collections |
打印当前数据库的所有聚集 |
show users |
打印当前数据库的用户 |
show profile |
打印最近耗时大于1ms的profiling操作 |
基本的Shell Javascript操作
db |
指向当前数据库对象和连接的变量,已经在你的实例里定义好。 |
db.auth(user,pass) |
数据库认证(如果运行安全模式的话) |
coll = db.collection |
访问数据库里特定的 collection |
cursor = coll.find() |
查找聚集里所有的对象。参考 [查询] 。 |
coll.remove(objpattern ) |
从聚集里删除匹配的对象。
objpattern 是一个指定匹配的域的对象,例如:coll.remove( { name: "Joe" } ); |
coll.save(object ) |
在聚集中保存对象,如果已经存在的话则更新它。
如果对象有 presave 方法,则会在保存到数据库之前(插入和更新之前)调用该方法。 |
coll.insert(object) |
向聚集中插入对象。不会检查该对象是否已经存在聚集中(即,不是 upsert) |
coll.update(...) |
在聚集中更新对象。update() 有许多参数,请查看 更新 文档。 |
coll.ensureIndex( { name : 1 } ) |
对 name 建索引。如果索引存在则不做任何事。 |
coll.drop() |
删除 coll 聚集 |
db.getSisterDB(name) |
返回当前连接的另一个数据库。它允许跨数据库查询,例如:db.getSisterDB('production').getCollectionNames() |
查询
coll.find() |
查询所有文档 |
it |
循环上次 find() 调用返回的游标 |
coll.find( criteria ); |
查询聚集中匹配 criteria 的对象。例如:coll.find( { name: "Joe" } ); |
coll.findOne( criteria); |
查询并返回一个对象。如果没有找到则返回 null。如果你只需要返回一个对象,这个方法比 find() as limit(1) 效率更高。如果元素类型是字符串,数字或时间,你还可以使用正则表达式:coll.find( { name: /joe/i } ); |
coll.find( criteria, fields ); |
查询对象里特定的域。例如:coll.find( {}, {name:true} ); |
coll.find().sort( {field :1[, field :1] }); |
对返回结果进行排序(field ASC)。使用 -1 表示 DESC。 |
coll.find( criteria ).sort( { field : 1 } ) |
查找匹配 criteria 的对象,并对 field 进行排序。 |
coll.find( ... ).limit(n ) |
限制结果返回 n 行。如果你只需要某几行数据,推荐这样做来获得最优性能。 |
coll.find( ... ).skip(n) |
跳过 n 行结果。 |
coll.count() |
返回聚集里对象的总数。 |
coll.find( ... ).count() |
返回匹配该查询的对象总数。注意,该返回会忽略 limit 和 skip。比如有100行记录匹配该查询,但是limit为10,count() 仍会返回100。这比你自己循环更快,但仍然需要消耗些时间。 |
更多信息请参考 [查询] 。
错误检查
[{{db.getLastError()}}] |
返回上次操作的错误 |
db.getPrevError() |
返回之前操作的错误 |
db.resetError() |
清除错误记录 |
管理命令
db.cloneDatabase(fromhost) |
从另外指定的主机拷贝当前数据数据库。fromhost必须为noauth模式。 |
db.copyDatabase(fromdb, todb, fromhost) |
拷贝fromhost的fromdb数据库到当前服务器的todb数据库。fromhost必须为noauth模式。 |
db.repairDatabase() |
修复当前数据库。如果数据库很大则该操作会非常慢。 |
db.addUser(user,pwd) |
给当前数据库添加用户。 |
db.getCollectionNames() |
获得所有聚集的列表。 |
db.dropDatabase() |
删除当前数据库。 |
打开额外连接
db = connect("<host>:<port>/<dbname>") |
打开一个新的数据库连接。一个shell可能有多个连接,但是shell自动的getLastError只用于 'db' 变量。 |
conn = new Mongo("hostname") |
打开一个新的服务器连接。然后可以使用 getDB() 来选择一个数据库。 |
db = conn.getDB("dbname") |
对一个连接选择一个特定的数据库。 |
其他
Object.bsonsize(db.foo.findOne()) |
打印一个数据库对象的bson大小(mongo 版本1.3及以上) |
db.foo.findOne().bsonsize() |
打印一个数据库对象的bson大小 (mongo 版本1.3之前) |
其实用mongo已经有些时候了,之所以算初探,是因为用的不深入,主要就是当中nosql中的类k-v用的,用之取代了部分的tt,原因很简单,mongo中的数据格式虽然是bson的,不过在我这个pythoner眼中,这不明明就是纯天然的 dict么!好吧,我承认,就是这个原因让我义无反顾地走上了mongoing之路(无论什么项目,用到存储自然而然的想用mongo)。
mongo的优劣是在使用的过程中逐步体验出来的,在这里就不评说了,想要评测的请直接google之
之前一直是直接在服务器端用pymongo或者mongo自带的shell做数据查看修改之类的操作,突然发现这个实在不利于推广,公司同事似乎本能的对这种nosql有稳定性上的怀疑。也好理解,看不到的,通常是不可信的(谁说的来着)。
鉴于大伙都习惯了phpadmin玩mysql的光荣传统,如果mongo也有类似的东东,看起来也亲切些,个人感觉对推广也会有利些。
额,说了这么多,好像还没有能进入到主题,好吧,说是初探,似乎有些标题党了,其实就想推荐下这个东东:http://code.google.com/p/rock-php/wiki/rock_mongo_zh#安装
不错的mongodb phpadmin客户端,还支持中文(我想这个还是蛮有利推广的),所谓初探,只不过是使用这东东换了个视角来看看Mongodb,感觉的确有些不一样。
不过,值得注意到是,装这玩意之前,还得为php装一个mongo的drive,不过不要紧,装完这个之后,访问时会直接给个装drive的链接,还是蛮方便的。
额,我应该不算标题党吧(至少不是纯碎的标题党。。 )
shell#查询
查询 name = "bruce" 的数据
db.users.find({ name : "bruce" });
条件操作符
$gt : >
$lt : <
$gte: >=
$lte: <=
$ne : !=、<>
$in : in
$nin: not in
$all: all
$not: 反匹配(1.3.3及以上版本)
查询 name <> "bruce" and age >= 18 的数据
db.users.find({name: {$ne: "bruce"}, age: {$gte: 18}});
查询 creation_date > '2010-01-01' and creation_date <= '2010-12-31' 的数据
db.users.find({creation_date:{$gt:new Date(2010,0,1), $lte:new Date(2010,11,31)});
查询 age in (20,22,24,26) 的数据
db.users.find({age: {$in: [20,22,24,26]}});
查询 age取模10等于0 的数据
db.users.find('this.age % 10 == 0');
或者
db.users.find({age : {$mod : [10, 0]}});
匹配所有
db.users.find({favorite_number : {$all : [6, 8]}});
可以查询出{name: 'David', age: 26, favorite_number: [ 6, 8, 9 ] }
可以不查询出{name: 'David', age: 26, favorite_number: [ 6, 7, 9 ] }
查询不匹配name=B*带头的记录
db.users.find({name: {$not: /^B.*/}});
查询 age取模10不等于0 的数据
db.users.find({age : {$not: {$mod : [10, 0]}}});
#返回部分字段
选择返回age和_id字段(_id字段总是会被返回)
db.users.find({}, {age:1});
db.users.find({}, {age:3});
db.users.find({}, {age:true});
db.users.find({ name : "bruce" }, {age:1});
0为false, 非0为true
选择返回age、address和_id字段
db.users.find({ name : "bruce" }, {age:1, address:1});
排除返回age、address和_id字段
db.users.find({}, {age:0, address:false});
db.users.find({ name : "bruce" }, {age:0, address:false});
数组元素个数判断
对于{name: 'David', age: 26, favorite_number: [ 6, 7, 9 ] }记录
匹配db.users.find({favorite_number: {$size: 3}});
不匹配db.users.find({favorite_number: {$size: 2}});
$exists判断字段是否存在
查询所有存在name字段的记录
db.users.find({name: {$exists: true}});
查询所有不存在phone字段的记录
db.users.find({phone: {$exists: false}});
$type判断字段类型
查询所有name字段是字符类型的
db.users.find({name: {$type: 2}});
查询所有age字段是整型的
db.users.find({age: {$type: 16}});
对于字符字段,可以使用正则表达式
查询以字母b或者B带头的所有记录
db.users.find({name: /^b.*/i});
$elemMatch(1.3.1及以上版本)
为数组的字段中匹配其中某个元素
Javascript查询和$where查询
查询 age > 18 的记录,以下查询都一样
db.users.find({age: {$gt: 18}});
db.users.find({$where: "this.age > 18"});
db.users.find("this.age > 18");
f = function() {return this.age > 18} db.users.find(f);
排序sort()
以年龄升序asc
db.users.find().sort({age: 1});
以年龄降序desc
db.users.find().sort({age: -1});
限制返回记录数量limit()
返回5条记录
db.users.find().limit(5);
返回3条记录并打印信息
db.users.find().limit(3).forEach(function(user) {print('my age is ' + user.age)});
结果
my age is 18
my age is 19
my age is 20
限制返回记录的开始点skip()
从第3条记录开始,返回5条记录(limit 3, 5)
db.users.find().skip(3).limit(5);
查询记录条数count()
db.users.find().count();
db.users.find({age:18}).count();
以下返回的不是5,而是user表中所有的记录数量
db.users.find().skip(10).limit(5).count();
如果要返回限制之后的记录数量,要使用count(true)或者count(非0)
db.users.find().skip(10).limit(5).count(true);
分组group()
假设test表只有以下一条数据
{ domain: "www.mongodb.org"
, invoked_at: {d:"2009-11-03", t:"17:14:05"}
, response_time: 0.05
, http_action: "GET /display/DOCS/Aggregation"
}
使用group统计test表11月份的数据count:count(*)、total_time:sum(response_time)、 avg_time:total_time/count;
db.test.group(
{ cond: {"invoked_at.d": {$gt: "2009-11", $lt: "2009-12"}}
, key: {http_action: true}
, initial: {count: 0, total_time:0}
, reduce: function(doc, out){ out.count++; out.total_time+=doc.response_time }
, finalize: function(out){ out.avg_time = out.total_time / out.count }
} );
[
{
"http_action" : "GET /display/DOCS/Aggregation",
"count" : 1,
"total_time" : 0.05,
"avg_time" : 0.05
}
]
来自: http://hi.baidu.com/asminfo/blog/item/20301e22dcfcce50ac34de7a.html
原先的grails是1.2.0,从这个版本之后,我试过1.2.1,1.2.2,1.3.0,1.3.1,但都因为程序在运行时会变成乱码,而一直使用着1.2.0。
我们的TOMCAT使用的是GBK编码,GRAILS文本都是使用UTF-8编码,所以,这是产生乱码的根本原因。
最近又有grails1.3.6,更新得很快,网上找了找,有解决方案了。http://www.groovyq.net/content/grails13%E5%8F%91%E5%B8%83
在服务器上一试,果然能行。现记录如下:
重新设定System.out的编码,将下面语句加入到_GrailsInit.groovy中,或者加入工程的BootStrap.groovy的init段即可
System.out = new PrintStream(System.out, true,"GB2312");
我使用的是第二种方法,在BootStrap.groovy的init段中加入以上语句。
以前,有位高手也提到过,但他的原文是:
“如果是println打印中文乱码的话,那么就在初始化文件中增加
System.out = new PrintStream(System.out, true, "GBK")
就应该了,你测试一下吧, ”
所以我一直以为是解决打印乱码的。
在此一并谢过。
来自: http://hi.baidu.com/caihexi/blog/item/76d093a4cce0c6e59152ee15.html
|
首先在mongo官网下载Windows的版本
启动服务:mongod.exe --port 12345 --dbpath=c:\mongodb\db
显示一下信息:
Fri Dec 04 14:30:32 Mongo DB : starting : pid = 0 port = 12345 dbpath = c:\mongo
db\db master = 0 slave = 0 32-bit
** NOTE: when using MongoDB 32 bit, you are limited to about 2 gigabytes of data
** see http://blog.mongodb.org/post/137788967/32-bit-limitations for more
Fri Dec 04 14:30:32 db version v1.1.4-, pdfile version 4.5
Fri Dec 04 14:30:32 git version: c67c2f7dd681152f1784c8e1c2119b979e65881d
Fri Dec 04 14:30:32 sys info: windows (5, 1, 2600, 2, 'Service Pack 3') BOOST_LI
B_VERSION=1_35
Fri Dec 04 14:30:32 waiting for connections on port 12345
启动客户端:mongo.exe localhost:12345
检查是否正常:db.foo.save({a:1,b:9})
db.foo.find({a:1})
控制台显示:{ "_id" : ObjectId("4b18b5b56f40000000006cec"), "a" : 1, "b" : 9 }
添加数据:db.foo.save({a:1,b:9})
查询数据:db.foo.find({a:1}) //{a:1}是查询条件,当为空时查询所有
db.foo.findOne({a:1}) //显示出一条数据
删除数据:db.foo.remove({a:1}) //删除a=1的数据
表的数据量:db.foo.find().count()
显示数据指定的条数:db.foo.find().limit(n)
显示库名:db.foo.getDB()
获取索引值:db.foo.getIndexes()
表的统计:db.foo.stats()
删除表:db.foo.drop()
获取不重复的列:db.foo.distinct( key ) - eg. db.foo.distinct( 'x' )
忽略前面的几行:db.other.find({a:2}).skip(2)//忽略a=2中的前面2行
方法帮助:db.foo.help()
HELP
show dbs show database names
show collections show collections in current database
show users show users in current database
show profile show most recent system.profile entries with time >= 1ms
use <db name> set curent database to <db name>
db.help() help on DB methods
db.foo.help() help on collection methods
db.foo.find() list objects in collection foo
db.foo.find( { a : 1 } ) list objects in foo where a == 1
it result of the last line evaluated; use to further iterate
DB methods:
db.addUser(username, password)
db.auth(username, password)
db.cloneDatabase(fromhost)
db.commandHelp(name) returns the help for the command
db.copyDatabase(fromdb, todb, fromhost)
db.createCollection(name, { size : ..., capped : ..., max : ... } )
db.currentOp() displays the current operation in the db
db.dropDatabase()
db.eval(func, args) run code server-side
db.getCollection(cname) same as db['cname'] or db.cname
db.getCollectionNames()
db.getLastError() - just returns the err msg string
db.getLastErrorObj() - return full status object
db.getMongo() get the server connection object
db.getMongo().setSlaveOk() allow this connection to read from the nonmaster member of a replica pair
db.getName()
db.getPrevError()
db.getProfilingLevel()
db.getReplicationInfo()
db.getSisterDB(name) get the db at the same server as this onew
db.killOp() kills the current operation in the db
db.printCollectionStats()
db.printReplicationInfo()
db.printSlaveReplicationInfo()
db.printShardingStatus()
db.removeUser(username)
db.repairDatabase()
db.resetError()
db.runCommand(cmdObj) run a database command. if cmdObj is a string, turns it into { cmdObj : 1 }
db.setProfilingLevel(level) 0=off 1=slow 2=all
db.shutdownServer()
db.version() current version of the server
DBCollection help
db.foo.count()
db.foo.dataSize()
db.foo.distinct( key ) - eg. db.foo.distinct( 'x' )
db.foo.drop() drop the collection
db.foo.dropIndex(name)
db.foo.dropIndexes()
db.foo.ensureIndex(keypattern,options) - options should be an object with these possible fields: name, unique, dropDups
db.foo.find( [query] , [fields]) - first parameter is an optional queryfilter. second parameter is optional set of fields to return. e.g. db.foo.find( { x : 77 } , { name : 1 , x : 1 } )
db.foo.find(...).count()
db.foo.find(...).limit(n)
db.foo.find(...).skip(n)
db.foo.find(...).sort(...)
db.foo.findOne([query])
db.foo.getDB() get DB object associated with collection
db.foo.getIndexes()
db.foo.group( { key : ..., initial: ..., reduce : ...[, cond: ...] } )
db.foo.mapReduce( mapFunction , reduceFunction , <optional params> )
db.foo.remove(query)
db.foo.renameCollection( newName ) renames the collection
db.foo.save(obj)
db.foo.stats()
db.foo.storageSize() - includes free space allocated to this collection
db.foo.totalIndexSize() - size in bytes of all the indexes
db.foo.totalSize() - storage allocated for all data and indexes
db.foo.update(query, object[, upsert_bool])
db.foo.validate() - SLOW
db.foo.getShardVersion() - only for use with shardin
1.选中你要加注释的区域,用ctrl+shift+C 会加上//注释
2.先把你要注释的东西选中,用shit+ctrl+/ 会加上/* */注释
3.要修改在eclispe中的命令的快捷键方式我们只需进入windows -> preference -> General -> key设置就行了(转)
补充:选中要加注释的区域,ctrl+/ 会加//注释 2010/09/13
选中后,ctrl+shift+\,去掉选中部分的注释
(转)附myeclipse中的所有快捷键列表:
Ctrl+1 快速修复(最经典的快捷键,就不用多说了)
Ctrl+D: 删除当前行
Ctrl+Alt+↓ 复制当前行到下一行(复制增加)
Ctrl+Alt+↑ 复制当前行到上一行(复制增加)
Alt+↓ 当前行和下面一行交互位置(特别实用,可以省去先剪切,再粘贴了)
Alt+↑ 当前行和上面一行交互位置(同上)
Alt+← 前一个编辑的页面
Alt+→ 下一个编辑的页面(当然是针对上面那条来说了)
Alt+Enter 显示当前选择资源(工程,or 文件 or文件)的属性
Shift+Enter 在当前行的下一行插入空行(这时鼠标可以在当前行的任一位置,不一定是最后)
Shift+Ctrl+Enter 在当前行插入空行(原理同上条)
Ctrl+Q 定位到最后编辑的地方
Ctrl+L 定位在某行 (对于程序超过100的人就有福音了)
Ctrl+M 最大化当前的Edit或View (再按则反之)
Ctrl+/ 注释当前行,再按则取消注释
Ctrl+O 快速显示 OutLine
Ctrl+T 快速显示当前类的继承结构
Ctrl+W 关闭当前Editer
Ctrl+K 参照选中的Word快速定位到下一个
Ctrl+E 快速显示当前Editer的下拉列表(如果当前页面没有显示的用黑体表示)
Ctrl+/(小键盘) 折叠当前类中的所有代码
Ctrl+×(小键盘) 展开当前类中的所有代码
Ctrl+Space 代码助手完成一些代码的插入(但一般和输入法有冲突,可以修改输入法的热键,也可以暂用Alt+/来代替)
Ctrl+Shift+E 显示管理当前打开的所有的View的管理器(可以选择关闭,激活等操作)
Ctrl+J 正向增量查找(按下Ctrl+J后,你所输入的每个字母编辑器都提供快速匹配定位到某个单词,如果没有,则在stutes line中显示没有找到了,查一个单词时,特别实用,这个功能Idea两年前就有了)
Ctrl+Shift+J 反向增量查找(和上条相同,只不过是从后往前查)
Ctrl+Shift+F4 关闭所有打开的Editer
Ctrl+Shift+X 把当前选中的文本全部变味小写
Ctrl+Shift+Y 把当前选中的文本全部变为小写
Ctrl+Shift+F 格式化当前代码
Ctrl+Shift+P 定位到对于的匹配符(譬如{}) (从前面定位后面时,光标要在匹配符里面,后面到前面,则反之)
下面的快捷键是重构里面常用的,本人就自己喜欢且常用的整理一下(注:一般重构的快捷键都是Alt+Shift开头的了)
Alt+Shift+R 重命名 (是我自己最爱用的一个了,尤其是变量和类的Rename,比手工方法能节省很多劳动力)
Alt+Shift+M 抽取方法 (这是重构里面最常用的方法之一了,尤其是对一大堆泥团代码有用)
Alt+Shift+C 修改函数结构(比较实用,有N个函数调用了这个方法,修改一次搞定)
Alt+Shift+L 抽取本地变量( 可以直接把一些魔法数字和字符串抽取成一个变量,尤其是多处调用的时候)
Alt+Shift+F 把Class中的local变量变为field变量 (比较实用的功能)
Alt+Shift+I 合并变量(可能这样说有点不妥Inline)
Alt+Shift+V 移动函数和变量(不怎么常用)
Alt+Shift+Z 重构的后悔药(Undo)
编辑
作用域 功能 快捷键
全局 查找并替换 Ctrl+F
文本编辑器 查找上一个 Ctrl+Shift+K
文本编辑器 查找下一个 Ctrl+K
全局 撤销 Ctrl+Z
全局 复制 Ctrl+C
全局 恢复上一个选择 Alt+Shift+↓
全局 剪切 Ctrl+X
全局 快速修正 Ctrl1+1
全局 内容辅助 Alt+/
全局 全部选中 Ctrl+A
全局 删除 Delete
全局 上下文信息 Alt+?
Alt+Shift+?
Ctrl+Shift+Space
Java编辑器 显示工具提示描述 F2
Java编辑器 选择封装元素 Alt+Shift+↑
Java编辑器 选择上一个元素 Alt+Shift+←
Java编辑器 选择下一个元素 Alt+Shift+→
文本编辑器 增量查找 Ctrl+J
文本编辑器 增量逆向查找 Ctrl+Shift+J
全局 粘贴 Ctrl+V
全局 重做 Ctrl+Y
查看
作用域 功能 快捷键
全局 放大 Ctrl+=
全局 缩小 Ctrl+-
窗口
作用域 功能 快捷键
全局 激活编辑器 F12
全局 切换编辑器 Ctrl+Shift+W
全局 上一个编辑器 Ctrl+Shift+F6
全局 上一个视图 Ctrl+Shift+F7
全局 上一个透视图 Ctrl+Shift+F8
全局 下一个编辑器 Ctrl+F6
全局 下一个视图 Ctrl+F7
全局 下一个透视图 Ctrl+F8
文本编辑器 显示标尺上下文菜单 Ctrl+W
全局 显示视图菜单 Ctrl+F10
全局 显示系统菜单 Alt+-
导航
作用域 功能 快捷键
Java编辑器 打开结构 Ctrl+F3
全局 打开类型 Ctrl+Shift+T
全局 打开类型层次结构 F4
全局 打开声明 F3
全局 打开外部javadoc Shift+F2
全局 打开资源 Ctrl+Shift+R
全局 后退历史记录 Alt+←
全局 前进历史记录 Alt+→
全局 上一个 Ctrl+,
全局 下一个 Ctrl+.
Java编辑器 显示大纲 Ctrl+O
全局 在层次结构中打开类型 Ctrl+Shift+H
全局 转至匹配的括号 Ctrl+Shift+P
全局 转至上一个编辑位置 Ctrl+Q
Java编辑器 转至上一个成员 Ctrl+Shift+↑
Java编辑器 转至下一个成员 Ctrl+Shift+↓
文本编辑器 转至行 Ctrl+L
搜索
作用域 功能 快捷键
全局 出现在文件中 Ctrl+Shift+U
全局 打开搜索对话框 Ctrl+H
全局 工作区中的声明 Ctrl+G
全局 工作区中的引用 Ctrl+Shift+G
文本编辑
作用域 功能 快捷键
文本编辑器 改写切换 Insert
文本编辑器 上滚行 Ctrl+↑
文本编辑器 下滚行 Ctrl+↓
文件
作用域 功能 快捷键
全局 保存 Ctrl+X
Ctrl+S
全局 打印 Ctrl+P
全局 关闭 Ctrl+F4
全局 全部保存 Ctrl+Shift+S
全局 全部关闭 Ctrl+Shift+F4
全局 属性 Alt+Enter
全局 新建 Ctrl+N
项目
作用域 功能 快捷键
全局 全部构建 Ctrl+B
源代码
作用域 功能 快捷键
Java编辑器 格式化 Ctrl+Shift+F
Java编辑器 取消注释 Ctrl+\
Java编辑器 注释 Ctrl+/
Java编辑器 添加导入 Ctrl+Shift+M
Java编辑器 组织导入 Ctrl+Shift+O
Java编辑器 使用try/catch块来包围 未设置,太常用了,所以在这里列出,建议自己设置。
也可以使用Ctrl+1自动修正。
运行
作用域 功能 快捷键
全局 单步返回 F7
全局 单步跳过 F6
全局 单步跳入 F5
全局 单步跳入选择 Ctrl+F5
全局 调试上次启动 F11
全局 继续 F8
全局 使用过滤器单步执行 Shift+F5
全局 添加/去除断点 Ctrl+Shift+B
全局 显示 Ctrl+D
全局 运行上次启动 Ctrl+F11
全局 运行至行 Ctrl+R
全局 执行 Ctrl+U
重构
作用域 功能 快捷键
全局 撤销重构 Alt+Shift+Z
全局 抽取方法 Alt+Shift+M
全局 抽取局部变量 Alt+Shift+L
全局 内联 Alt+Shift+I
全局 移动 Alt+Shift+V
全局 重命名 Alt+Shift+R
全局 重做 Alt+Shift+Y
来自:http://hi.baidu.com/q923373067/blog/item/9936310c10207b3b6159f30d.html
NoSQL,就是反SQL,是一项全新的数据库革新运动,特别是在 2010 年得以迅猛发展。而各种开源的 NoSQL 软件突然间涌现在你面前。目前似乎没有对 NoSQL 给出一个标准的定义,也没有相应的规范,但从这些软件可以看出 NoSQL 软件的共同点:独立运行、K/V存储结构,这之前有人称之为集中式缓存服务,其实你可以把二者等同起来。
那么多的 NoSQL 软件,到底哪些更受欢迎呢?为此,开源中国社区为你评选出10款2010年最受关注的 NoSQL 软件。
1. Cassandra
Cassandra 在 2010 年出尽风头,但最终都以失败告终,包括 Twitter 以及 Digg 的案例使我们不得不对 NoSQL 技术是否成熟,是否能在大规模系统中应用产生了怀疑。但这并不影响 Cassandra 拔得头筹,因为还有 Facebook 的支持。
Apache Cassandra 是一套开源分布式Key-Value存储系统。它最初由Facebook开发,用于储存特别大的数据。Facebook目前在使用此系统。
主要特性:
Cassandra 采用 Java 开发,Apache 授权协议。
2. memcached
memcached 是老牌的独立缓存服务的领头羊,目前国内使用该系统的网站非常的多,在这基础上还有国内开发的 memcachedb 是 memcached 支持持久化存储。
memcached 是一套分布式的快取系统,当初是Danga Interactive为了LiveJournal所发展的,但目前被许多软件(如MediaWiki)所使用。不过,memcached 缺乏认证以及安全管制
memcached 采用 C 语言开发,可在 Linux 系统下使用,采用 BSD 授权。
3. Membase
Membase 是 NoSQL 家族的一个新的重量级的成员,其完全兼容 memcached 的方式,有望笼络 memcached 的用户群。Membase 的可伸缩性、集群、复制以及管理方便等特性又是 memcached 无法匹敌的。
Membase 同样采用 C 语言开发,支持 Windows 和 Linux 系统,使用 Apache 授权协议。
接下来介绍两款国产的 NoSQL 软件:
4. Tair
Tair 是由淘宝网自主开发的分布式Key/Value结构数据存储系统,在淘宝网有着大规模的应用。您在登录淘宝、查看商品详情页面或者在淘江湖和好友“捣浆糊”的时候,都在直接或间接地和Tair交互。
Tair 采用 C 语言开发,支持 Linux 系统,使用 GPLv2 授权协议。
5. BeansDB
BeansDB 是豆瓣网开发的一个主要针对大数据量、高可用性的分布式Key Value存储系统,采用HashTree和简化的版本号来快速同步保证最终一致性(弱),一个简化版的 Dynamo。
它采用类似memcached的去中心化结构,在客户端实现数据路由。目前只提供了 Python版本的客户端,其它语言的客户端可以由memcached的客户端稍加改造得到。
主要特性包括:
- 高可用:通过多个可读写的用于备份实现高可用;
- 最终一致性:通过哈希树实现快速完整数据同步(短时间内数据可能不一致);
- 容易扩展:可以在不中断服务的情况下进行容量扩展;
- 高性能:异步IO和高性能的Key Value数据Tokyo Cabinet;
- 可配置的可用性和一致性:通过N,W,R进行配置;
- 简单协议:Memcached兼容协议,大量可用客户端。
BeansDB 采用 Python 语言开发,支持 Linux 系统,使用 BSD 授权协议。
6. Redis
Redis 是一个高性能的key-value数据库。 redis的 出现,很大程度补偿了memcached这类keyvalue存储的不足,在部分场合可以对关系数据库起到很好的补充作用。它提供了Python,Ruby,Erlang,PHP客户端,使用很方便。
Redis 的短板:
- 这个项目还很新,可能还不足够稳定,而且没有在实际的一些大型系统应用的实例。
- 缺乏mc中批量get也是比较大的问题,始终批量获取跟多次获取的网络开销是不一样的。
Redis 采用 C 语言开发,支持 Linux 系统,使用 BSD 授权协议。
7. CouchDB
Apache CouchDB 是一个面向文档的数据库管理系统。它提供以 JSON 作为数据格式的 REST 接口来对其进行操作,并可以通过视图来操纵文档的组织和呈现。 CouchDB 是 Apache 基金会的顶级开源项目。
CouchDB落实到最底层的数据结构就是两类B+Tree 。
不过最近有消息说 CouchDB 将走一条不同于 NoSQL 的路子,具体情况如何我们只能拭目以待。
CouchDB 是用 ErLang 开发的哦,跨平台支持,Apache 授权协议。
8. Tokyo Cabinet
Tokyo Cabinet 是一个DBM的实现。这里的数据库由一系列key-value对的记录构成。key和value都可以是任意长度的字节序列,既可以是二进制也可以是字符串。这里没有数据类型和数据表的概念。
当做为Hash表数据库使用时,每个key必须是不同的,因此无法存储两个key相同的值。提供了以下访问方法:提供key,value参数来存储,按 key删除记录,按key来读取记录,另外,遍历key也被支持,虽然顺序是任意的不能被保证。这些方法跟Unix标准的DBM,例如GDBM,NDBM 等等是相同的,但是比它们的性能要好得多(因此可以替代它们)
当按B+树来存储时,拥用相同key的记录也能被存储。像hash表一 样的读取,存储,删除函数也都有提供。记录按照用户提供的比较函数来存储。可以采用顺序或倒序的游标来读取每一条记录。依照这个原理,向前的字符串匹配搜 索和整数区间搜索也实现了。另外,B+树的事务也是可用的。
Tokyo Cabinet 采用 C 语言开发,支持 Linux 系统,使用 LGPL 授权协议。
9. OrientDB
Orient DB 是一个可伸缩的文档数据库,支持 ACID 事务处理。使用 Java 5 实现。OrientDB 最强的一个地方是可以使用 类 SQL 的查询语句进行数据查询。
OrientDB 采用 Java 语言开发,跨平台支持,使用 Apache 授权协议。
10. Hibari
Hibari (在日语中意思为“云雀”)是一个专为高可靠性和大数据存储的数据库引擎,可用于云计算环境中,例如 webmail、SNS 和其他要求T/P级数据存储的环境中。Hibari 支持 Java, C/C++, Python, Ruby, 和 Erlang 语言的客户端。
Hibari 并不是一个关系数据库,主要是通过 key-value 的方法进行数据存储。
Hibari 使用 ErLang 语言开发,支持 Linux/BSD 系统,Apache 授权协议。
来自:http://www.oschina.net/news/14209/2010-top-10-nosql-projects
解决办法:(我已经尝试,没问题,可行的方法)
1 先把SQL Server卸载,再把安装时产生的“Microsoft SQL Server”文件夹删掉
2 在运行注册表,把HKEY_CURRENT_USER\Software\Microsoft\Microsoft SQL Server,和HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Microsoft.SQL.Server全部删掉,(注意要把Microsoft SQL Server文件夹整个删掉),然后重起。
来自:http://hi.baidu.com/seavictor/blog/item/76cbd0a2bc1736a5caefd00c.html
在注册表里可以改:
HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\LanmanServer\Parameters
右边窗口中的Users value,设置type为Decimal,接下来设置最大数就行了
1.把光盘的.tar.gz文件拷贝到/tmp目录
2.把.tar.gz文件解压
3.运行./vmware-install.pl,一路回车
4.运行结束后重新启动,无法进入桌面
5.进入字符模式,cd/etc/X11
6.cp xorg.conf.BeforeVMwareToolsInstall xorg.conf
7. reboot -n
原因:可能是安装时分辨率选择过高。
以前都是让硬件部门协助安装,今天硬件人员不在,尝试自己安装。
首先从VNC官方网站下载一个FREE版本的VNC。
在目标服务器上解压:
# gunzip vnc-4_1_3-sparc_solaris.pkg.gz
下面利用pkgadd命令安装VNC包:
# pkgadd -d vnc-4_1_3-sparc_solaris.pkg
The following packages are available:
1 VNC VNC Free Edition for Solaris
(sparc) 4.1.3
Select package(s) you wish to process (or 'all' to process
all packages). (default: all) [?,??,q]: 1
Processing package instance <VNC> from </var/spool/pkg/vnc-4_1_3-sparc_solaris.pkg>
VNC Free Edition for Solaris(sparc) 4.1.3
Copyright (C) 2002-2005 RealVNC Ltd. All rights reserved.
This is free software; you can redistribute it and/or modify
it under the terms of the GNU General Public License as published by
the Free Software Foundation; either version 2 of the License, or
(at your option) any later version.
This software is distributed in the hope that it will be useful,
but WITHOUT ANY WARRANTY; without even the implied warranty of
MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the
GNU General Public License for more details.
Using </usr/local> as the package base directory.
## Processing package information.
## Processing system information.
## Verifying disk space requirements.
## Checking for conflicts with packages already installed.
The following files are already installed on the system and are being
used by another package:
* /usr/local/bin <attribute change only>
* - conflict with a file which does not belong to any package.
Do you want to install these conflicting files [y,n,?,q] y
## Checking for setuid/setgid programs.
This package contains scripts which will be executed with super-user
permission during the process of installing this package.
Do you want to continue with the installation of <VNC> [y,n,?] y
Installing VNC Free Edition for Solaris as <VNC>
## Installing part 1 of 1.
/usr/local/bin/Xvnc
/usr/local/bin/vncconfig
/usr/local/bin/vncpasswd
/usr/local/bin/vncserver
/usr/local/bin/x0vncserver
/usr/local/man/man1/Xvnc.1
/usr/local/man/man1/vncconfig.1
/usr/local/man/man1/vncpasswd.1
/usr/local/man/man1/vncserver.1
/usr/local/man/man1/x0vncserver.1
/usr/local/vnc/classes/index.vnc
/usr/local/vnc/classes/logo150x150.gif
/usr/local/vnc/classes/vncviewer.jar
[ verifying class <server> ]
/usr/local/bin/vncviewer
/usr/local/man/man1/vncviewer.1
[ verifying class <viewer> ]
/usr/local/doc/vnc-E/LICENSE.txt
/usr/local/doc/vnc-E/README
[ verifying class <doc> ]
## Executing postinstall script.
Checking for xauth... /usr/openwin/bin
WARNING: /usr/openwin/bin/xauth is not on your path.
Checking for perl... [OK]
Checking for uname... [OK]
Installation of <VNC> was successful.
下面就可以通过VNCPASSWORD设置密码,并使用VNCSERVER来启动VNC后台进程:
# /usr/local/bin/vncpasswd
Password:
Verify:
# /usr/local/bin/vncserver
vncserver: couldn't find "Xvnc" on your PATH.
# export PATH=$PATH:/usr/local/bin
# vncserver &
[1] 15921
# xauth: creating new authority file //.Xauthority
New 'ser2:1 ()' desktop is ser2:1
Creating default startup script //.vnc/xstartup
Starting applications specified in //.vnc/xstartup
Log file is //.vnc/ser2:1.log
[1]+ Done vncserver
注意要将VNCSERVER命令的目录添加到PATH路径中,后台启动VNCSERVER后,就可以使用VNCVIEWER访问ser2:1了。
来自: http://pub.itpub.net/post/468/482239
1.首先下載 vnc-3.3.3r2_sun4_sosV_5.5.tgz
用tar命令解压缩,tar -xvf vnc-3.3.3r2_sun4_sosV_5.5.tgz
cd vnc-3.3.3r2_sun4_sosV_5.5
mkdir -p /usr/local/vnc/classes
建立一个目录
cp classes/* /usr/local/vnc/classes
接着再
cp *vnc* /usr/bin
這樣安裝過程基本上就完成了
2.創建.vnc目錄
mkdir $HOME/.vnc (linux下运行vncserver會自動建立)
运行vncserver,接著系統會提示你輸入密碼,這個密碼為當前用戶的VNC訪問密碼
這樣一個VNCserver就啟動了
可以用win下的vncviwer來連接,也可能用IE來直接訪問:
在IE地址欄里輸入//192.168.0.20:5801(這里的IP地址為你VNC服務器的IP地址)
輸入密碼就可以訪問了
3.在VNC里用CED
如果連網速度夠快的話,我們可以在VNC里用CED
cd $HOME/.vnc
vi xstartup
注释掉twm &,添加/usr/dt/bin/dtsession &
注意:系統的rpc服務不能停,如果CDE啟動不了,試試/etc/init.d/rpc start
(開始我的也不行,多亏了本版版主蜘蛛的幫忙才解決的,再次表示感謝:P)
vncserver :num為啟動VNC,如果不指定num則從1開始
vncserver -kill :num為停止VNC
4. 这样只能root用户可以启动vncserver,想用普通用户启动的话,用如下为方法(远程装oracle就不用那么麻烦了:P)
只要setuid /usr/bin/Xvnc就行了
提示:setuid会带来一定的安全隐患,如果取舍就看需要了(也可以用全就set回去,呵呵)
来自: http://www.jb51.net/os/Solaris/1685.html
虽然不全,但一定是常用的,小弟自己整理的,望大家能够继续补充
1.showrev
查看系统Hostid: 24cc7225
Release: 5.9
Kernel architecture: i86pc
Application architecture: i386
Hardware provider: COMPAQ
Domain: sinomos.com
Kernel version: SunOS 5.9 Generic 112234-10 Nov 2003
showrev -p可以查看系统的安装的补丁
2、vmstat监视cpu
iostat监视磁盘
iostat -E现在磁盘信息,包括大小和错误数量,厂家等等
3、prtconf显示系统信息
4、prtdiag显示系统cpu,内存,以及OBP
5、netstat -r路由信息
netstat -i接口信息
6、查看网卡状态
ndd -get /dev/eri link_status or link_speed
7. isainfo -b 32 or 64
isainfo查看系统的平台类型sparc or i386
8. prodreg图形界面显示安装的软件
9、prtvtoc /dev/rdsk/c0t0d0s2
/* Disk geometry and partitioning info *
10、dos2unix | -ascii <filename>;
/* Converts DOS file formats to Unix */
11、mailx -H -u <username>;
/* List out mail headers for specified user */
12、prtconf | grep "Memory size"
/* Display Memory Size */
13、prstat -a类似top的命令
14、Snoop Your Network
snoop -d pcelx0
/* Watch all network packets on device pcelx0 */
snoop -o /tmp/mylog pcelx0
/* Saves packets from device pcelx0 to a file */
snoop -i /tmp/mylog host1 host2
/* View packets from logfile between host1 & host2 */
snoop -i /tmp/mylog -v -p101
/* Show all info on packet number 101 from a logfile */
snoop -i /tmp/mylog -o /tmp/newlog host1
/* Write a new logfile with all host1 packets */
snoop -s 120
/* Return the first 120 bytes in the packet header */
snoop -v arp
/* Capture arp broadcasts on your network */
15、uname -a
显示机器名以及机器的平台,机器的型号
16、df -h显示磁盘使用情况
17、查看cpu详细信息psrinfo -v
18、whoami
who
finger
查看当前登陆用户(大家运行下,看看有什么区别)
19、fuser -cu /mountpoint,看当前有什么进程和此文件系统有关
fuser -ck /mountpoint,杀掉所有和此文件系统有关的进程
20、查看磁盘的分区情况:format---0(表硬盘控制器号)--partition--print
21、du -sk dir1 显示目录 dir1 的总容量,以k bytes为计量
22、id 查看当前用户用户号和组号
23、dfshares 显示远程机共享资源
24、pkginfo -l 命令显示关于软件包的详细信息,包括软件包的大小
Solaris 系统管理命令及相关技术中英文对照
A
-----------------------------------------------------------------------------------
ab2admin—对AnswerBook2进行管理的命令行界面
ab2cd—从Documentation CD中运行AnswerBook2服务器
ab2regsvr—向联合域名服务注册AnswerBook2文档服务器
accept、reject—接受或拒绝打印请求
acct—对计数及各种计数命令的概述
acctcms—进程计数命令
acctcon、acctcon1、acctcon2—连接时间计数
acctdisk—将计数数据转换为计数记录总数
acctdusg—通过登录信息计算磁盘资源的消耗
acctmerg—合并或添加总体计数文件
accton—在已有文件中追加进程计数记录
acctprc、acctprc1、acctprc2—进程计数
acctsh、chargefee、ckpacct、dodisk、lastlogin、monacct、nulladm、prctmp、prdaily、prtacct、
shutacct、startup、turnacct—进行计数的shell过程
acctwtmp—将utmpx记录写入文件
adbgen—生成adb脚本
add_drv—在系统中增加一个新的设备驱动器
add_install_client—从网络安装中添加或删除客户的脚本
add_to_install_server—从附加的Solaris CD中将脚本复制到现有的网络安装服务器
addbadsec—映射出错误磁盘块
admintool—通过图形用户界面进行系统管理
afbconfig、SUNWafb_config—配置AFB图形加速器
aliasadm—处理NIS+别名映射
allocate—设备分配
amiserv—AMI密钥服务器
answerbook2_admin—AnswerBook2 GUI管理工具
arp—地址解析的显示与控制
aset—控制或限制对系统文件和目录的访问
aset.restore—恢复ASET所影响的文件系统
aspppd、aspppls—异步PPP链接管理程序
aspppls—异步PPP链接管理程序
audit—控制审计守护进程的行为
auditconfig—审计配置
auditd—控制审计追踪文件的生成与定位
auditreduce—从审计追踪文件中合并和选择审计追踪记录
audit_startup—审计子系统初始化脚本
auditstat—显示内核审计统计
audit_warn—审计守护进程警告脚本
automount—安装自动挂接点
automountd—挂接/摘除守护进程autofs
autopush—配置一个自动压入的STREAMS模块列表
B
-----------------------------------------------------------------------------------
bdconfig—配置按钮和拨号流
boot—启动系统内核或者一个独立程序
bootparamd—引导参数服务器
bsmconv、bsmunconv—启用或者禁用BSM
busstat—报告与总线有关的性能统计
C
-----------------------------------------------------------------------------------
cachefslog—对CacheFS进行记录
cachefspack—将文件和文件系统压缩到高速缓存中
cachefsstat—对CacheFS进行统计
cachefswssize—测定高速缓存文件的工作集合的大小
captoinfo—将termcap描述转换为terminfo描述
cfgadm—配置管理
cfgadm_ac—对EXX00内存进行系统管理
cfgadm_pci—对PCI热插入进行配置管理的命令
cfgadm_scsi—SCSI硬件专用的cfgadm命令
cfgadm_sysctrl—对EX00系统板进行管理
cfsadmin—管理CacheFS进行文件系统高速缓存时所使用的磁盘空间
cg14config—配置SX/CG14图形加速器设备
chargefee—计数的shell过程
check-hostname—检测sendmail是否能够测定系统的完全合格主机名
check-permissions—检测邮件重新路由的权限
check—对JumpStart规则文件中的规则进行校验的脚本
chown—改变所有者
chroot—修改命令的root目录
ckpacct—定期检测/var/adm/pacct长度的计数命令
clear_locks—清除NFS客户所持有的锁
clinfo—显示分组信息
closewtmp—将一个非法读取进程的记录放入/var/adm/wtmpx文件
clri、dcopy—清除信息节点
comsat—Biff服务器
consadm—指定或者显示辅助控制台设备
conv_lp—转换LP的配置
conv_lpd—转换LPD的配置
coreadm—对核心文件进行管理
cpustat—通过CPU性能计数对系统行为进行嗫?
crash—检测系统映像
cron—时钟守护进程
cvcd—虚拟控制台守护进程
D
-----------------------------------------------------------------------------------
dcopy—清除信息节点
dd—转换与复制文件
deallocate—设备的卸配
devattr—显示设备属性
devconfig—配置设备属性
devfree—从独占使用中释放设备
devfsadm—对/dev和/devices进行管理的命令
devfseventd—devfsadmd的内核事件通知守护进程
devinfo—打印特定于设备的信息
devlinks—为各种设备和伪设备添加/dev项
devnm—设备名
devreserv—为独占使用预留设备
df—显示闲置的磁盘块和文件数
df_ufs—报告UFS文件系统上的闲置磁盘空间
dfmounts—显示被挂接的资源信息
dfmounts_nfs—显示被挂接的NFS资源信息
dfshares—列举远程或本地系统中可用的资源
dfshares_nfs—列举远程系统可用的NFS资源
dhcpagent—客户DHCP的守护进程
dhcpconfig—对DHCP服务进行管理的命令
dhcpmgr—管理DHCP服务的图形界面
dhtadm—对DHCP配置表进行管理的命令
disks—为附加到系统的硬盘创建/dev项
diskscan—执行表面分析
dispadmin—进程调度管理
dmesg—收集系统诊断消息,形成错误日志
dmi_cmd—DMI命令行界面的命令
dmiget—命令行方式的DMI的获取命令
dminfo—报告设备映射文件中某设备项的相关信息
dmispd—Sun Solstice Enterprise 的DMI服务提供商
dodisk—由时钟守护进程调用的shell过程,可执行磁盘计数功能
domainname—显示或者设置当前域名
dr_daemon—Enterprise 10000 的动态重配守护进程
drvconfig—配置/devices目录
du—对磁盘使用情况进行汇总
dumpadm—对操作系统的崩溃转储进行配置
E
-----------------------------------------------------------------------------------
edquota—为UFS文件系统编辑用户配额
eeprom—EEPROM的显示和装载命令
F
-----------------------------------------------------------------------------------
fbconfig—帧缓冲的配置命令
fdetach—将名字与基于STREAMS的文件描述符分离
fdisk—创建或者修改固定磁盘分区表
ff—为文件系统列举文件名和统计信息
ff_ufs—为UFS文件系统列举文件名和统计
ffbconfig—对FFB图形加速器进行配置
fingerd—远程用户信息服务器
firmware—可引导的固件程序和固件命令
fmthard—填充硬盘的卷目录表
fncheck—检测FNS数据与NIS+数据之间的一致性
fncopy—复制FNS环境
fncreate—创建FNS环境
fncreate_fs—创建FNS文件系统的环境
fncreate_printer—在FNS名字空间中创建新打印机
fndestroy—破坏FNS环境
fnselect—为FNS初始化环境选择一个特定的命名服务
fnsypd—更新NIS主服务器上的FNS环境
format—磁盘的分区与维护命令
fsck—检测和修复文件系统
fsck_cachefs—为CacheFS缓存的数据进行完整性检测
fsck_s5fs—文件系统的一致性检测和交互式修复
fsck_udfs—文件系统的一致性检测和交互式修复
fsck_ufs—文件系统的一致性检测和交互式修复
fsdb—文件系统调试器
fsdb_udfs—UDFS文件系统调试器
fsdb_ufs—UFS文件系统调试器
fsirand—安装随机的信息节点编号生成器
fstyp—测定文件系统的类型
ftpd—文件传输协议服务器
fuser—通过文件或者文件结构标识进程
fwtmp、wtmpfix—对连接计数记录进行处理
G
-----------------------------------------------------------------------------------
gencc—创建cc命令的前端
getdev—分类列举设备
getdgrp—列举包含了匹配设备的设备组
getent—从管理数据库中获取表项
gettable—从主机中获取DoD Internet格式的主机表
getty—设置终端类型、模式、速度和行规范
getvol—对设备的可达性进行校验
GFXconfig—配置PGX32(Raptor GFX)图形加速器
goupadd—在系统中添加或创建新组定义
groupdel—从系统中删除组定义
groupmod—修改系统中的组定义
grpck—口令和组文件的检测程序
gsscred—添加、删除 、列举gsscred表项
gssd—为内核RPC产生和验证GSS-AIP标记
H
-----------------------------------------------------------------------------------
halt、poweroff—关闭处理器
hostconfig—配置系统的主机参数
htable—转换DoD Internet格式的主机表
I
-----------------------------------------------------------------------------------
id—返回用户标识
ifconfig—配置网络接口参数
in.comsat、comsat—Biff服务器
in.dhcpd—DHCP服务器
in.fingerd、fingerd—远程用户信息服务器
in.ftpd、ftpd—文件传输协议服务器
in.lpd—BSD打印协议适配器
in.named、named—Internet域名服务器
in.ndpd—IPv6的自动配置守护进程
in.rarpd、rarpd—DARPA逆向地址解析协议服务器
in.rdisc、rdisc—发现网络路由守护进程
in.rexecd、rexecd—远程执行服务器
in.ripngd—IPv6的网络路由守护进程
in.rlogind、rlogind—远程登录服务器
in.routed、routed—网络路由守护进程
in.rshd、rshd—远程shell服务器
in.rwhod、rwhod—系统状态服务器
in.talkd、talkd—talk程序服务器
in.telnetd、telnetd—DARPA TELNET协议服务器
in.tftpd、tftpd—Internet平凡文件传输协议服务器
in.tnamed、tnamed—DARPA平凡名字服务器
in.uucpd、uucpd—UUCP服务器
inetd—Internet服务守护进程
infocmp—比较或打印terminfo描述
init、telinit—进程控制的初始化
init.wbem—启动和停止CIM引导管理程序
install—安装命令
install_scripts—Solaris软件的安装脚本
installboot—在磁盘分区中安装引导块
installf—向软件安装数据库中添加文件
Intro、intro—对维护命令及应用程序的介绍
iostat—报告I/O统计
ipsecconf—配置系统范围的IPsec策略
ipseckey—手工操作IPsec的SA数据库
K
-----------------------------------------------------------------------------------
kadb—内核调试器
kdmconfig—配置或卸配键盘、显示器和鼠标选项
kerbd—为内核RPC生成和校验Kerberos票据
kernel—包括基本操作系统服务在内的UNIX系统可执行文件
keyserv—存储加密私钥的服务器
killall—杀死所有活跃的进程
ktkt_warnd—Kerberos警告守护进程
kstat—显示内核统计信息
L
-----------------------------------------------------------------------------------
labelit—为文件系统列举或者提供标签
labelit_hsfs—为HSFS文件系统列举或者提供标签
labelit_udfs—为UDF文件系统列举或者提供标签
labelit_ufs—为UFS文件系统列举或者提供标签
lastlogin—显示每个人员所登录的最后日期
ldap_cachemgr—为NIS查找缓存的服务器和客户信息LDAP守护进程
ldapclient、ldap_gen_profile—对LDAP客户机进行初始化或者创建LDAP客户配置文件的LDIF
link、unlink—链接或者取消链接文件和目录
list_devices—列举可分配的设备
listdgrp—列举设备组的成员
listen—网络监听守护进程
llc2_loop—为测试驱动器、适配器和网络回送诊断
lockd—网络锁定守护进程
lockfs—修改或者报告文件系统锁
lockstat—报告内核锁的统计信息
lofiadm—通过lofi管理可用作磁块设备的文件
logins—列举用户和系统的登录信息
lpadmin—配置LP打印服务
lpfilter—管理LP打印服务所使用的过滤器
lpforms—管理LP打印服务所使用的格式
lpget—获取打印配置
lpmove—移动打印请求
lpsched—启动LP打印服务
lpset—在/etc/printers.conf或FNS中设置打印配置
lpshut—停止LP打印服务
lpsystem—向打印服务注册远程系统
lpusers—设置打印队列的优先级
luxadm—SENA、RSM和SSA子系统的管理程序
M
-----------------------------------------------------------------------------------
m64config—配置M64图形加速器
mail.local—将邮件存入邮件箱
makedbm—创建dbm文件,或者从dbm文件得到文本文件
makemap—为sendmail创建数据库映射
mibiisa—Sun SUMP代理
mk—从源代码重建二进制系统和命令
mkfifo—创建FIFO专用文件
mkfile—创建一个文件
mkfs—构造文件系统
mkfs_pcfs—构造FAT文件系统
mkfs_udfs—构造UDFS文件系统
mkfs_ufs—构造UFS文件系统
mknod—创建专用文件
modify_install_server—在现有网络安装服务器上取代miniroot的脚本
modinfo—显示所装载的内核模块信息
modload—装载内核模块
modunload—卸载模块
mofcomp—将MOF文件编译为CIM类
monacct—每月调用计数程序
monitor—SPARC系统的PROM监控器
mount、umount—挂接或摘除文件系统和远程资源
mountall、umountall—挂接、摘除多个文件系统
mount_cachefs—挂接CacheFS文件系统
mountd—接收NFS挂接请求和NFS访问的服务器
mount_hsfs—挂接HSFS文件系统
mount_nfs—挂接远程的NFS资源
mount_pcfs—挂接PCFS文件系统
mount_s5fs—挂接s5文件系统
mount_tmpfs—挂接tmpfs文件系统
mount_udfs—挂接UDFS文件系统
mount_ufs—挂接UFS文件系统
mount_xmemfs—挂接xmemfs文件系统
mpstat—报告每个处理器的统计信息
msgid—生成消息ID
mvdir—移动目录
N
-----------------------------------------------------------------------------------
named-bootconf—将配置文件转换为适用于Bind 8.1的格式
named-xfer—支持入站区域传送的辅助代理
named—Internet域服务器
ncheck—生成路径名与i编号的映射列表
ncheck_ufs—为UFS文件系统生成路径名与i编号的映射列表
ndd—获取和设置驱动器的配置参数
netstat—显示网络状态
newfs—构造新的UFS文件系统
newkey—在publickey数据库中创建新的Diffie-Hellman密钥对
nfsd—NFS守护进程
nfslogd—NFS的日志记录守护进程
nis_cachemgr—对NIS+服务器的位置信息进行高速缓存的NIS+命令
nfsstat—显示NFS统计信息
nisaddcred—创建NIS+证书
nisaddent—从相应的/etc文件或者NIS映射中创建NIS+表
nisauthconf—NIS+的安全性配置
nisbackup—备份NIS+目录
nisclient—为NIS+实体初始化NIS+证书
nisd—NIS+服务的守护进程
nisd_resolv—NIS+服务的守护进程
nisinit—NIS+客户和服务器的初始化命令
nislog—显示NIS+事务日志的内容
nispasswdd—NIS+口令更新的守护进程
nisping—向NIS+服务器发送ping
nispopulate—填充NIS+域中的NIS+表
nisprefadm—为NIS+客户设置服务器优先级别的NIS+命令
nisrestore—恢复NIS+目录的备份
nisserver—创建NIS+服务器
nissetup—初始化NIS+域
nisshowcache—打印共享高速缓存文件的NIS+命令
nisstat—报告NIS+服务器的统计信息
nisupdkeys—更新NIS+目录中的公钥
nisadmin—对网络监听服务进行管理
nscd—名字服务的高速缓存守护进程
nslookup—交互式查询名字服务器
nstest—DNS测试shell
nsupdate—更新DNS名字服务器
ntpdate—使用NTP设置本地的日期和时间 731
ntpq—标准NTP查询程序 733
ntptrace—沿着NTP主机链追溯到其主控时间资源 739
nulladm—采用664模式创建文件名,确保其所有者和组为adm
O
-----------------------------------------------------------------------------------
obpsym—OpenBoot固件的内核符号调试
ocfserv—OCF 服务器
P
-----------------------------------------------------------------------------------
parse_dynamic_clustertoc—基于动态项对clustertoc文件进行语法分析
passmgmt—对口令文件进行管理
patchadd—将补丁包应用于Solaris系统
patchrm—删除补丁包并恢复以前保存的文件
pbind—控制和查询进程与处理器之间的绑定
pcmciad—PCMCIA用户守护进程
pfinstall—对安装配置文件进行测试
pgxconfig、GFXconfig—配置PGX32(Raptor GFX)图形加速器
ping—向网络主机发送ICMP(ICMP6) ECHO_REQUEST包
pkgadd—将软件包传给系统
pkgask—将答复信息存储在请求脚本中
pkgchk—检测软件包安装的准确性
pkgrm—从系统中删除软件包
pmadm—对端口监控器进行管理
pmconfig—对电源管理系统进行配置
pntadm—DHCP网络表的管理命令
ports—为串行线创建/dev和inittab项
powerd—电源管理的守护进程
poweroff—停止处理器
praudit—打印审计追踪文件的内容
prctmp、prdaily、prtacct—打印各种计数文件
printmgr—在网络中管理打印机的图形用户界面
prstat—报告活跃进程的统计信息
prtconf—打印系统的配置信息
prtdiag—显示系统的诊断信息
prtvtoc—报告关于磁盘几何以及分区信息
psradm—修改处理器的操作状态
psrinfo—显示处理器的相关信息
psrset—创建和管理处理器集合
putdev—编辑设备表
putdgrp—编辑设备组表
pwck、grpck—口令/组文件的检测程序
pwconv—使用/etc/passwd中的信息安装和更新/etc/shadow
Q
-----------------------------------------------------------------------------------
quot—汇总系统文件的所有权信息
quota—显示用户在UFS文件系统中的磁盘配额和使用情况
quotacheck—UFS文件系统配额的一致性检测程序
quotaon、quotaoff—打开或者关闭UFS文件系统的配额
R
-----------------------------------------------------------------------------------
rarpd—DARPA逆向地址解析协议服务器
rdate—从远程主机设置系统日期
rdisc—探测网络路由器的守护进程
re-preinstall—在系统上安装JumpStart软件
reboot—重新启动操作系统
reject—拒绝打印请求
rem_drv—从系统中删除设备驱动器
removef—从软件数据库中删除文件
repquota—为UFS文件系统进行配额汇总
restricted_shell—受限的shell命令接收器
rexd—基于RPC的远程执行服务器
rexecd—远程执行服务器
rlogind—远程登录服务器
rm_install_client—从网络安装中删除客户的脚本
rmmount—用于CD-ROM和软盘的可移动介质挂接程序
rmt—远程磁带协议模块
roleadd—管理新的角色帐号
roledel—删除角色的登录
rolemod—修改现有的角色帐号
route—对路由表进行手工处理
routed—网络路由的守护进程
rpc.bootparamd、bootparamd—引导参数服务器
rpc.nisd、nisd—NIS+服务的守护进程
rpc.nisd_resolv、nisd_resolv—NIS+服务的守护进程
rpc.nispasswdd、nispasswdd—NIS+口令更新的守护进程
rpc.rexd、rexd—基于RPC的远程执行服务器
rpc.rstatd、rstatd—内核统计服务器
rpc.rusersd、rusersd—网络用户的名字服务器
rpc.rwalld、rwalld—网络rwall服务器
rpc.sprayd、sprayd—Spray服务器
rpc.yppasswdd、yppasswdd—修改NIS口令文件的服务器
rpc.ypupdated、ypupdated—修改NIS信息的服务器
rpcbind—统一地址到RPC程序编号的映射
rpcinfo—报告RPC信息
rpld—IA网络引导的RPL服务器
rquotad—远程配额服务器
rsh—受限的shell
rshd—远程shell服务器
rstatd—内核统计服务器
rtc—对所有的实时钟和GMT标记进行管理
runacct—进行每日计数
rusersd—网络用户的名字服务器
rwall—写给网络中的所有用户
rwalld—网络rwall服务器
rwhod—系统状态服务器
S
-----------------------------------------------------------------------------------
sa1、sa2、sadc—系统行为报告信息包
sac—服务访问控制器
sacadm—对服务访问控制器进行管理
sadc—报告系统行为的信息包
sadmind—分布式系统管理的守护进程
saf—服务访问程序 888
sar、sar1、sac2、sadc—报告系统行为的包
savecore—保存操作系统的崩溃转储
sendmail—在Internet上发送邮件
server_upgrade—为异质OS服务器的客户进行升级
setmnt—建立挂接表
setuname—修改系统信息
setup_install_server—从Solaris CD到磁盘的复制脚本
share—允许远程挂接时使用本地资源
share_nfs—允许远程挂接时使用NFS文件系统
shareall、unshareall—共享或者取消共享多个资源
showmount—显示所有的远程挂接
showrev—显示机器和软件的修正信息
shutacct—在系统关机时关闭进程计数
shutdown—关闭系统或者改变系统状态
slpd—服务定位协议守护进程
smartcard—配置和管理智能卡
smrsh—sendmail的受限shell
snmpdx—Sun Solstice Enterprise Master Agent
snmpXdmid—Sun Solstice Enterprise的SNMP-DMI映射
snoop—捕获并检查网络包
soconfig—配置套接字所使用的传输提供商
soladdapp—将应用程序添加到Solstice应用程序注册表中
soldelapp—从Solstice应用程序注册表中删除应用程序
solstice—通过图形用户界面访问系统管理工具
spray—Spray信息包
sprayd—Spray服务器
ssaadm—SPARCstorage 队列和SPARCstorage RSM磁盘系统的管理程序
startup—在启动时打开进程计数
statd—网络状态监控器
strace—打印STREAMS追踪消息
strclean—STREAMS错误记录器的清除程序
strerr—STREAMS错误记录器守护进程
sttydefs—为TTY端口维护行设置并寻找序列
su—成为超级用户或者另一个用户
sulogin—访问单用户模式
suninstall—安装Solaris操作环境
swap—交换管理界面
swmtool—安装、升级和删除软件包
sxconfig—为SX视频子系统配置连续内存
sync—更新超块
syncinit—设置串行线接口的操作参数
syncloop—同步线性回送的测试程序
syncstat—从同步串行链接中报告驱动器统计信息
sys-unconfig—取消系统的一个配置
sysdef—输出系统定义
sysidconfig—执行或定义系统配置程序
sysidtool、sysidnet、sysidns、sysidsys、sysidroot、sysidp—系统配置
syslogd—记录系统消息
T
-----------------------------------------------------------------------------------
talkd—talk程序的服务器
tapes—为磁带设备创建/dev
taskstat—打印ASET任务的状态
tcxconfig—配置S24(TCX)帧缓冲
telinit—进程控制的初始化
telnetd—DARPA TELNET协议服务器
tftpd—Internet平凡文件传输协议服务器
tic—terminfo编译器
tnamed—DARPA平凡命名服务器
traceroute—打印信息包到达网络主机的路由
ttyadm—对特定端口监控器的信息进行格式化并输出
ttymon—终端端口的监控器
tunefs—调谐现有的文件系统
turnacct—打开或关闭进程计数
U
-----------------------------------------------------------------------------------
uadmin—管理控制
ufsdump—文件系统的增量转储
ufsrestore—文件系统的增量恢复
umount—摘除文件系统以及远程资源
umountall—摘除多个文件系统
unlink—取消文件和目录的连接
unshare—不允许远程系统挂接本地资源
unshare_nfs—不允许远程系统挂接本地的NFS文件系统
unshareall—取消所有资源的共享
useradd—管理系统中的新用户登录或新角色
userdel—从系统中删除用户登录
usermod—修改系统中的用户登录或角色信息
utmp2wtmp—在runacct所生成的文件/var/adm/wtmpx中创建新项
utmpd—utmpx监控守护进程
uucheck—检测UUCP目录和许可文件
uucico—UUCP系统的文件传输程序
uucleanup—清除UUCP假脱机目录
uucpd—UUCP服务器
uusched—UUCP文件传输程序的调度程序
Uutry、uutry—尝试在调试模式中联系远程系统
uuxqt—执行远程命令请求
V
-----------------------------------------------------------------------------------
vmstat—报告虚拟内存的统计
volcopy—创建文件系统的映像拷贝
volcopy_ufs—创建UFS文件系统的映像拷贝
vold—对CD-ROM和软盘设备进行管理的卷管理守护进程
W
-----------------------------------------------------------------------------------
wall—写给所有的用户
wbemadmin—启动Sun WBEM用户管理程序
wbemlogviewer—启动WBEM日志查看程序
whodo—报告谁在做什么
wtmpfix—处理连接计数记录
X
-----------------------------------------------------------------------------------
xntpd—网络时间协议的守护进程
xntpdc—专用的NTP查询程序
Y
-----------------------------------------------------------------------------------
ypbind—NIS绑定进程
ypinit—创建NIS客户
ypmake—重建NIS数据库
yppasswdd—修改NIS口令文件的服务器
yppoll—返回NIS服务器主机上的当前NIS映射版本
yppush—强制传播一个已修改的NIS映射
ypserv、ypxfrd—NIS服务器以及绑定进程
ypset—指向特定服务器上的ypbind
ypstart、ypstop—启动和停止NIS服务
ypupdated—修改NIS信息的服务器
ypxfr、ypxfr_1perday、ypxfr_1perhour、ypxfr_2perday—从NIS服务器向主机传送NIS映射
ypxfrd—NIS服务器与绑定进程
来自: http://hi.baidu.com/trail/blog/item/5043b2356acaf38ba61e12ca.html
当我们安装完成一台Solaris 10服务器或者工作站后通常要做的是配置网络接口,这样Solaris 10服务或者工作站才能和网络中的其他计算机进行联机。
一、 理解Solaris网络配置文件
常常有读者会问Uinx (Solaris 当然也在其中)中有没有一个标准的配置文件格式?一句话,没有。不熟悉 Unix 的用户一定会感到沮丧,因为每个配置文件看起来都象是一个要迎接的新挑战。所以在Solaris 中,每个程序员都可以自由选择他或她喜欢的配置文件格式。Solaris系统中大多数配置文件都在 /etc 目录中。配置文件可以大致分为下面几类:访问文件、引导和登录/注销、系统管理、网络配置、系统命令等。本文将要介绍的是网络配置文件,主要包括:
1. /etc/hostname.interface
该文件是物理网卡的配置文件,这个文件包括一个主机名称或者主机的IP地址。有le、hme等后缀等。 le是十兆网卡,hme为百兆网卡等等。后面跟一个数字,第一个十兆网卡为le0,第二个为le1;第二个百兆网卡为hme0,第二个为hme1等。 Solaris 安装程序要求您在安装过程中至少配置一个接口。自动配置的第一个接口将成为主网络接口。安装程序为主网络接口和在安装时选择配置的任何其他接口创建 /etc/hostname.interface 文件。 如果在安装过程中配置了其他接口,请验证每个接口是否有对应的 /etc/hostname.interface 文件。在 Solaris 安装过程中,无需配置多个接口。但是,如果稍后要将更多接口添加到系统中,则必须手动配置它们。
说明:如一台SUN工作站连接了Internet网和内部网,则可对应创建两个文件分为hostname.le0和hostname.le0:2。
2. /etc/nodename
在 Solaris 安装过程中指定系统的主机名时,该主机名将输入到 /etc/nodename 文件中。确保节点名称项是系统的正确主机名。如果计算机名称是cjh ,那么/etc/nodename 文件中肯定包括一行:cjh 。
3. /etc/defaultdomain
/etc/defaultdomain文件包括本地主机的域名。如,假定主机 tenere 是域 deserts.worldwide.com 的一部分。则在 /etc/defaultdomain 中包括 以下信息:deserts.worldwide.com。
4. /etc/defaultrouter
/etc/defaultrouter包括主机的路由地址。选用动态路由协议,则可将 /etc/defaultrouter文件置为空。若选择静态协议,只需在/etc/defaultrouter文件中填入缺省路由器名,这样当Unix 路由器找不到寻径路由时便将IP包发往缺省路由器。
5. /etc/inet/hosts
/etc/inet/hosts是主机数据库文件。主机数据库包含网络中各系统的IPv4 地址和主机名。如果使用NIS 或DNS 名称服务,或者使用LDAP 目录服务,则hosts 数据库在专门存储主机信息的数据库中进行维护。例如,在运行NIS 的网络中,hosts 数据库在hostsbyname 文件中进行维护。如果使用本地文件提供名称服务,则hosts 数据库将在/etc/inet/hosts 文件中维护。此文件包含主网络接口的主机名和IPv4 地址、连/etc/inet/hosts 文件格式:
IPv4-address hostname [nicknames] [#comment]
IPv4-address 包含本地主机必须识别的每个接口的IPv4 地址。
hostname 包含设置期间指定给系统的主机名,以及指定给本地主机必须识别的
其他网络接口的主机名。
[nickname] 包含主机昵称的可选字段。
[#comment] 是可选的注释字段。接到系统的其他网络接口的主机名和IPv4 地址以及系统必须检查的其他网络地址。
一个典型文件如下:
# Internet host table
127.0.0.1 localhost
10.1.1.8 suncjh loghost
说明:其中127.0.0.1 是回送地址。回送地址是本地系统用来允许进程间通信的保留网络接口。主机可使用此地址将数据包发送给自己。ifconfig 命令使用回送地址进行配置和测试。
6. /etc/inet/ipnodes
/etc/inet/ipnodes 文件同时存储IPv4 和IPv6 地址。此外,也可以存储以传统的点分十进制或CIDR 表示法表示的IPv4 地址。此文件作为将主机名与其IPv4 和IPv6 地址进行关联的本地数据库。
7. /etc/inet/netmasks
/etc/inet/netmasks是子网掩码数据库。如果在网络中设置了子网,则配置网络时只需要 编辑netmasks 数据库。netmasks数据库由网络及其关联的子网掩码的列表组成。创建子网时,每个新网络必须是单独的物理网络。不能在单个物理网络中设置子网。
对于 C 类网络号 192.168.83,请键入:192.168.83.0 255.255.255.0;对于 CIDR 地址,将网络前缀转换为等效的用点分十进制表示法表示的项。例如,使用以下内容可以表示 CIDR 网络前缀 192.168.3.0/22。
二、 配置实战
假设有一台Sun 服务器
主机名称:cjh1 ,
IP地址:192.168.1.2 ,
子网掩码:255.255.255.0,
默认路由:192.168.1.1。
我们准备把它修改为:
主机名称:suncjh ,
IP地址:10.1.1.8 ,
子网掩码:255.0.0.0,
默认路由:10.0.0.0。
步骤如下:
1 首先必须获得管理员权限或者授权角色用户。
2 进入etc目录。
3 使用vi或者其他编辑器打开文件:/etc/nodename 。将主机名称:cjh1 修改为suncjh 。
4 编辑网络端口配置文件:hostname.eri0, 将主机名称:cjh1 修改为suncjh 。同时把Ip地址修改为10.1.1.8 。
5 编辑/etc/inet/hosts文件,删除包括原来主机名称的一行,加入一行:
10.1.1.8 suncjh suncjh.deserts.worldwide.com
其中deserts.worldwide.com是主机suncjh的域名。
6 在文件/etc/defaultdomain加入域名:
deserts.worldwide.com
7 编辑文件/etc/defaultrouter
把192.168.1.1修改为 10.0.0.0 。
8 修改子网掩码数据库文件/etc/inet/netmasks
删除一行:
192.168.1.1 255.255.255.0
加入它一行:
10.0.0.0 255.0.0.0
9 重新引导系统,使用命令:
reboot -- -r
10查看修改是否生效
使用ifconfig查看ip地址结果如图1 。
图1 ?使用ifconfig查看ip地址结果
说明:下表介绍了 ifconfig 查询中的变量信息。使用图1输出作为示例。
使用hostmane查看主机名称如图2 。
图2 使用hostmane查看主机名称
使用netstat -r 查看路由表如图3 。
图3 使用netstat -r 查看路由表
另外如果您希望临时修改服务器的ip地址可以使用ifconfig命令:
ifconfig pcn0 192.168.6.25/27 broadcast + up
对 IPv4 地址使用 CIDR 表示法时,不必指定网络掩码。ifconfig 使用网络前缀标识来确定网络掩码。例如,对于 192.168.6.0/27 网络,ifconfig 设置网络掩码 ffffffe0。如果使用了更常见的 /24 前缀标识,则生成的网络掩码是 ffffff00。使用 /24 前缀标识相当于在配置新 IP 地址时为 ifconfig 指定网络掩码 255.255.255.0。这样服务器的IP地址会马上修改为192.168.6.25,需要说明的重新引导系统,则系统会恢复到其以前的 IP 地址和子网掩码和主机名称。这一点和linux是相同的。
来自: http://hi.baidu.com/bossycrab/blog/item/48f886442613594a500ffed9.html
/etc/defaultrouter中配网关
/etc/resolv.conf中配DNS
nameserver 202.XX.XX.XX
/etc/nsswitch.conf中hosts条中的file后加写dns
安装完solaris后,默认是不能上网的,需要修改如下四个文件:
1. /etc/hosts or /etc/inet/hosts
2. /etc/resolv.conf 默认是没有的,需要手工添加
3. /etc/nsswitch.conf这个修改一下就ok
4. /etc/defaultrouter默认也是没有的,手工添加
详细如下:
1.编辑/etc/hosts文件,用过linux的朋友明白这步是什么意思的,只不过/etc/hosts文件是/etc/inet/hosts文件的一个软链接,如下所示:
#cd /etc
#ls -l hosts
lrwxrwxrwx 1 root root 12 Jan 6 17:12 hosts -> ./inet/hosts
#cd /etc/inet
#ls -l hosts
-r--r--r-- 1 root sys 107 Jan 6 19:56 hosts
2.创建resolv.conf文件,加入dns服务器地址:
#vi /etc/resolv.conf
nameserver 202.101.172.48
nameserver 202.101.172.46
3.修改/etc/nsswitch.conf,只修改如下行:
hosts: files dns
4.创建/etc/defaultrouter文件,加入网关地址:
#vi /etc/defaultrouter
192.168.1.1
来自:http://limingchengwu.blog.163.com/blog/static/126785777200972841953324/
vi介绍
vi编辑器是一个用于创建和修改文本文件的交互式编辑器。使用vi编辑器时所有的文本编辑都放在一个缓冲区中,可以把所作的修改写到磁盘也可以放弃所做的修改。
对于那些有志于成为系统管理员的人而言,掌握如何使用vi编辑器是非常重要的。你必须知道如何使用vi编辑器,特别是在窗口环境不可用的时候。
Vi编辑器的工作模式
Vi编辑器是一个命令行编辑器,有三种基本的操作模式:
命令模式
文本输入模式(编辑模式)
最后行模式
命令模式:vi的默认模式,在命令模式下,你可以键入命令来删除、更改、移动文本;定位光标;搜索文本字符串、退出vi编辑器。
文本输入模式(编辑模式):在编辑模式下,你可以往文件中输入文本。要使vi编辑器进入编辑模式下,可以
采用以下三种不同的命令:
i插入
o打开
a 添加
最后行模式:当处于命令模式下时,通过键入:你可以执行更先进的编辑命令,键入:后,将使你处于屏幕的最后一行,这就称为最后行模式。然而,所有的命令都是由命令模式发起的。
模式间的切换
通过键入I、o、a命令,vi编辑器将离开默认的命令模式,进入编辑模式。
在编辑模式下,你所键入的所有文本都不会被翻译成命令,这时,所有键入的文本都会被保存到文件中。
当你完成了文本的输入后,按Esc键vi将回到命令模式下,一旦回到命令模式,你可以保存文件,退出vi编辑器,例如:
1、键入vi filename来创建一个文件;
2、键入I命令来插入文本;
3、按Esc键回到命令模式;
4、键入:wq来保存到文件,退出vi编辑器。
调用vi编辑器
要创建一个新文件,调用带新文件名称的vi编辑器。也可以键入命令来创建、编辑、查看一个文件。
命令格式
vi options filename
view filename
输入命令
要插入或者添加文本,使用下面的选项:
命令含义
a 在光标右侧输入文本
A 在光标所在行的末尾输入文本
I在光标左侧输入文本
I 在光标所在行的开头输入文本
O在光标所在行的下一行开始新行
O在光标所在行的上一行开始新行
备注:vi编辑器是大小写敏感的,因此,使用命令时注意正确的大小写。
定位命令
下面列出的是控制光标的移动键
键功能
h,左箭头,退格键光标左移一个空格
j,下箭头光标下移一行
k,上箭头光标上移一行
l,右箭头,空格键光标右移一个空格
w光标右移,到下一个字开头
b光标左移,到前一个字开头
e光标右移,到下一个字末尾
$光标右移到行结尾
0,^光标左移到行开头
回车键光标移到下一行开头
control-f下翻一屏
control-d下滚半屏
control-b上翻一屏
control-u上滚半屏
control-L刷新屏幕
编辑命令
以下部分讲解vi编辑器中的编辑命令
删除文本
要删除文本,使用下面选项:
vi编辑器中的文本删除命令
命令功能
x删除光标所在处的一个字符
dw删除字(或者删除字的一部分,从光标所在处到字结尾)
dd删除光标所在行
D删除光标光标所在处之右的行
:5,10d删除5-10行
备注:命令3dw删除光标所在处开始的三个字,同样,3dd删除光标所在行开始的3行。
撤销、重复、修改文本命令
要修改文本、撤销修改或者是重复编辑命令,使用下面的编辑命令,许多命令是vi编辑器进入编辑模式,要返回命令模式,按Esc键即可:
命令功能
cw修改字(部分字,从光标所在处开始到一个字的结尾)
R从当前光标所在处位置开始替换字符(注:vi将进入编辑模式)
C从光标坐在处开始修改,到行末尾结束
s用字符替换字符串
r替换当前光标所在的字符
J合并当前行以及下面行
Xp转置光标所在处字符与另一字符
~更改光标所在处字符大小写
u放弃最近的修改
U放弃对当前行所作的修改
:u放弃上一个最后行命令(用于最后行模式)
:r filename在当前光标所在处读入文件文本
查找和替换文本,使用以下选项:
命令功能
/string向下查找字符串string
?string向上查找字符串string
n查找字符串string的下一个出现
N查找字符串string的上一个出现
:%s/old/new/g 全局查找和替换
拷贝和粘贴文本
拷贝命令把需要拷贝的文本放入一个临时缓冲区,粘贴命令从临时缓冲区中读取文本,并把文本写道当前文档的指定位置。拷贝和粘贴使用的选项如下:
命令功能
yy(小写)复制一行文本,并将他们放入到临时缓冲区
p(小写)将临时缓冲区中的内容放置到光标后面的位置
P(大写)将临时缓冲区中的内容放置到光标前面的位置
:l,3 co 5拷贝1-3行的文本,并把它放置在第5行后面
:4,6 m 8移动4-6行到第8行,第6行称为第8行,第5行称为第7行,第4行称为第6行
保存和退出文件
要保存和退出文件,使用如下选项:
命令功能
:w保存文件,不退出vi
:w new_filename保存到文件new_filename中
:wq保存修改退出vi
:x保存修改并退出vi
ZZ保存修改且退出vi
:q!不保存修改,退出vi
:wq!保存修改,退出vi
定制vi会话
vi编辑器里面包括了定制vi会话的操作,例如:
1、显示行号
2、显示不可视字符,例如tab和行结尾字符
在命令模式下使用set命令可以控制这些选项:
编辑定制vi会话命令
命令功能
:set nu显示行号
:set nonu隐藏行号
:set ic设置搜索时忽略大小写
:set noic搜索时对大小写敏感
:set list显示不可视字符
:set nolist不显示不可视字符
:set showmode显示当前操作模式
:set shownomode不显示当前操作模式
:set显示所有的vi环境变量设置
:set all显示所有的vi环境变量可能取值及其当前设置值
你也可以把这些操作放在home目录下你创建的文件.exec中,set操作放在该文件中,不用带前面的:,一行一个命令,一旦该文件存在时,每次你开启一个vi会话时系统将取读取该文件来设置对应的vi环境变量。
要找某一特定行,使用下面的选项:
定位命令
命令 功能
G到文件最后一行
1G到文件的一行
:21到第21行
21G到第21行
来自: http://blog.csdn.net/jobs_zhaokai/archive/2007/05/23/1622171.aspx
在这里,我们记录一些在ESX主机上发生的、相当常见的问题。通常,可以采取一些简单的步骤去解决这些问题,但有的问题就需要较深入的解决方法。
紫屏死机(PSoDs, Purple Screen of Death)
有一种在ESX和ESXi主机上都可能发生的故障,叫做紫屏死机(可以说是臭名昭著的微软蓝屏死机的VMware版)。紫屏死机会导致ESX/或ESXi主机突然崩溃、变得无法操作。紫屏死机现象如图10.6所示,你一定不希望在自己的主机上发生这种现象。
图10.6 ESX主机上的紫屏死机现象
当PSoDs发生时,ESX会完全死机,没有任何反应。硬件问题(坏有问题的内存是最常见的原因)或ESX中的BUG是导致PSoDs的典型原因。当PSoDs发生时,你只能关闭并重启主机。屏幕上的提示信息非常有用,应该尝试记录它:可以使用带有拍照功能的手机给它照相,或者,如果存在的话,可以从一个远程管理面板上截图。你或许看不明白这些捕获下来的信息,但是,这些信息对VMware的技术支持来说非常有用。屏幕上显示的信息包括ESX的版本和build号、异常类型、寄存器转储(register dump)、崩溃时每个CPU正在跑什么、回溯追踪(back-trace)、服务器运行时间、错误日志、内存硬件信息等。
当你遇到PSoDs并重启主机之后,在ESX主机或/root文件夹下,会有一个以vmkernel-zdump开头(命名)的文件。这个文件对 VMware技术支持非常有用,同时,你也可以使用该文件,通过vmkdump工具提取 VMkernel日志信息、寻找与PSoDs有关的线索,从而判断PSoDs发生的原因。要使用这个命令,输入vmkdump –l dump <文件名>。如前所述,坏有问题的内存是PSoDs中常见的原因。 你可以使用dump 文件识别引起问题的内存模块,从而将其替换掉。
如果怀疑是坏内存引起PSoDs,可以使用一些内存压力测试工具来检测主机的内存。这些工具需要你关闭主机并从CD启动以进行内存测试。一个常用的工具是Memtest86+,它可以进行广泛的内存测试,比如,检测邻近内存单元的相互影响,以确保要写某单元时不会覆盖邻近的单元。你可以在www.memtest.org下载这个工具。
当你在某个主机上首次部署ESX的时候,进行一次内存测试是个好主意,这样可以避免在以后某个时候内存故障引起麻烦。许多的内存问题都是不明显的,简单的内存测试,比如POST过程中的内存校验可能都发现不了问题。你可以下载Memtest86+测试工具,一个2MB大小的ISO文件,将这个文件刻录成CD,让主机从该CD启动,然后运行该工具至少24小时以完成多种内存测试。主机中的内存越大,完成一次测试的时间越长,一个拥有32GB内存的主机完成一次测试大概需要1天的时间。除了系统内存,Memtest86+还检测CPU的L1和L2 cache。Memtest86+的运行时间不确定,当所有的测试都完成时,通过的计数器会增加。(Memtest86+ will run indefinitely, and the pass counter will increment as all the tests are run.)
服务器控制台问题
有时候,你可能会遇到服务器控制台问题,表现为:服务器控制台挂起,同时,不允许在本地登录。这种状况可能是由硬件锁定或僵尸状态引起,但是,通常这种问题不会影响在ESX主机上运行的虚拟机(VM)。重启是解决这种问题的常用方法,但是,在重启之前,你应该关闭VM,或者将VM VMmotion到其他的ESX。可以使用各种可用的途径来操作VM,完成关闭或迁移。比如,使用VI client、通过SSH登录到服务控制台或者使用可替代的/紧急的控制台(通过按Alt+F2到F6)。当VM被迁移或者关闭之后,你可以使用 reboot命令重启ESX,如果所有的控制台都没有响应,你就只能去按主机上的电源按钮,冷启动主机。
网络问题
有时,你也会遇到某种故障导致丢失了所有或者部分的网络配置,或者网络配置改变导致服务控制台丢失网络连接。当服务控制台的网络连接丢失时,你将无法使用远程的方法来连接ESX主机,包括VI client和SSH。你只能在本地的服务控制台上使用esxcfg-命令行工具恢复/修正网络配置,以下是一些命令,你可以从ESX CLI上使用它们配置网络:
esxcfg-nics
这个命令显示物理网卡列表,除去每个网卡的驱动信息、PCI设备、链接状态,你可以使用这个命令控制物理网卡的速度、双工模式等。esxcfg-nics –l显示网卡信息、esxcfg-nics –h显示该命令可用的选项,以下是一些例子:
o设置物理网卡vmnic2的速度和双工模式为100/Full:
esxcfg-nics -s 100 -d full vmnic2
o设置物理网卡vmnic2的速度和双工模式为自适应模式:
esxcfg-nics -a vmnic2
esxcfg-vswif
创建或者更新服务控制台网络,包括IP地址和端口组,esxcfg-vswif –l显示当前设置、esxcfg-vswif –h显示可用的选项,以下是一些例子:
o更改服务控制台(vswif0)IP地址和子网掩码:
esxcfg-vswif -i 172.20.20.5 -n 255.255.255.0 vswif0
o添加服务控制台(vswif0):
esxcfg-vswif -a vswif0 -p "Service Console" -i 172.20.20.40 -n 255.255.255.0
esxcfg-vswitch
创建或者更新虚拟机网络(vSwitch) ,包括上行链路、端口组和VLAN ID. 输入esxcfg-vswitch –l显示当前的vSwitch、 esxcfg-vswitch –h显示所有可用的选项. 以下是一些例子:
o将物理网卡(vmnic2) 添加到vSwitch (vSwitch1):
esxcfg-vswitch -L vmnic2 vswitch1
o将物理网卡(vmnic3)从一个vSwitch (vSwitch0)上移除:
esxcfg-vswitch -U vmnic3 vswitch0
o在vSwitch (vSwitch1)上添加一个端口组(VM Network3):
esxcfg-vswitch -A "VM Network 3" vSwitch1
o在vSwitch (vSwitch1)上给端口组(VM Network 3)分配一个VLAN ID(3):
esxcfg-vswitch -v 3 -p "VM Network 3" vSwitch1
esxcfg-route
设置或提取缺省的VMkernel网关路由。输入esxcfg-route –l当前的路由信息、esxcfg-route -h显示所有可用的选项. 以下是一些例子:
o设置缺省的VMkernel网关路由:
esxcfg-route 172.20.20.1
o添加一个路由到VMkernel:
esxcfg-route -a default 255.255.255.0 172.20.20.1
esxcfg-vmknic
为VMotion、NAS和iSCSI创建或者更新VMkernel TCP/IP设置。输入esxcfg-vmknic –l显示VMkernel NICs、esxcfg-vmknic -h显示所有可用的选项. 以下是一些例子:
o添加一个VMkernel NIC并设定IP和子网掩码:
esxcfg-vmknic -a "VM Kernel" -i 172.20.20.19 -n 255.255.255.0
另外,你可以通过service network restart命令重启服务控制台网络。
其他问题
有时,重启某些ESX服务既可解决问题且不影响VM的运行。两个可以被重启、并可经常解决问题的服务是hostd和vpxa。运行在服务控制台中的 Hostd服务负责管理ESX上的大部分操作,要重启hostd服务,登入服务控制台,输入service mgmt-vmware restart。
vpxa服务是管理代理,用于处理主机和客户端之间的通讯,客户端包括vCenter Server和任何连接到ESX的VI client。如果在vCenter Server上看到某个主机显示disconnected但没有显示当前信息,或者,任何其他的涉及到vCenter Server和一个主机的奇怪的问题,都可以通过重启vpxa服务来解决。要启动该服务,登入服务控制台,输入service vmware-vpxa restart。当你遇到问题时,推荐你重启这两个服务,因为,重启它们经常可以解决很多问题。
来自:http://virtual.51cto.com/art/200907/134341.htm
步骤1:启动Server Manager
想要启动Server Manager,点击:: Start Menu -> All Programs -> Administrative Tools -> Server Manager。Server Manager窗口打开。
步骤2:添加一个服务角色
在Server Manager中,选择Roles。
角色的汇总视图将显示出来。
步骤3:开始添加角色向导
点击Add Roles.
添加角色向导打开
点击Next选择要安装的角色
步骤4:选择安装Web Server(IIS)角色
选择Web Server(IIS)。
步骤5:Web Server角色依赖于WAS
添加角色向导将提示你需要依赖哪些需求;由于IIS是依赖于Windows Process Activation Service(WAS),所以下面的提示窗口将展现出来。
点击Add Required Role Services 按钮继续
现在选择需要安装的Web Server。选择Server角色的窗口将打开。
选择Web Server(IIS)
步骤6:附加信息
下面的对话框和信息将弹出。
步骤7:查看IIS 7.0的功能
添加角色向导将列出一个可以安装的IIS 7.0的全部功能。请注意,默认的一些安装已经选择好了。
步骤8:选择需要安装的IIS附加功能
这个例子中,我们将安装IIS的附加功能:
选择ASP.NET复选框。将弹出下面的对话框。
向导将会警告,如果安装一个IIS功能,可能会同时安装其他的功能。
步骤9:选择需要安装的IIS附加功能
继续选择需要安装的附加IIS角色服务。
选中你需要的功能。
步骤10:安装的功能的摘要
向导列出了一个已经安装的功能的汇总,像下面显示的
步骤11:安装进度
点击Install后,安装进度对话框打开。
步骤12:安装完成
当IIS 7.0安装完成,下面的对话框将打开。点击Close返回Server Manager。
步骤13:检查IIS 7.0的安装
你现在可以执行快速检查来验证IIS 7.0是否已经安装
打开Internet Explorer浏览器,输入http://localhost地址。
你将看到默认的IIS"Welcome"站点
1、现象描述:当虚拟系统需要更改bios选项时(譬如系统故障,需要修改以CD启动系统),有可能开始虚拟系统时压根就没有看到开机画面,系统就已经从硬盘以其他方式启动了。
2、解决方法:很简单,在虚拟机中按Ctrl+Alt+Insert键重新热启动虚拟机就可以看到开机画面了,这时可以使用F2进入bios了。(DONE)
来自: http://hi.baidu.com/syanpi/blog/item/25a82e95267bb140d1135e84.html
Classic ESX:
ESX3.5和ESX4.0在默认情况下SSH是开启的,但是不允许以root权限登录。修改/etc/ssh/sshd_config,并重启sshd服务.
PermitRootLogin no
=>
PermitRootLogin yes
/etc/init.d/sshd restart
Embedded ESX:
1. 编辑/etc/inetd.conf, 找到ssh的那一行, 去掉前面的注释。
2. ps | grep inetd, 找到inetd对应的进程。
3. kill -HUP pid_of_inetd
来自 :http://linux.chinaunix.net/techdoc/net/2009/07/07/1122227.shtml
今天在修改ESX Server 地址时出现了一些问题,简单描述一下正确的操作过程:
注:以下步骤最好是在机器前或者通过ILO 接口操作,如果是SSH远程登陆,修改IP后会断开连接。
[root@nt08 root]# esxcfg-vswif -i 10.0.0.1 -n 255.255.255.0 vswif0
# 修改 Service console 地址
[root@nt08 root]# vi /etc/hosts # 修改机器IP地址
[root@nt08 root]# vi /etc/sysconfig/network # 修改机器名和网关
此时重启机器或者执行以下命令可以立刻生效
[root@nt08 root]# service network restart
重设IP 之后,需要在 VI Client 上将新机器的 IP 的 Host,这样就完成了整个修改 ESX Server IP 的过程。
---------------------------------------------------------------------------
1:看你的esx版本。
vmware -v
2:列出esx里知道的服务
esxcfg-firewall -s
3:查看具体服务的情况
esxcfg-firewall -q sshclinet
4:重新启动vmware服务
service mgmt-vmware restart
5: 修改root的密码
passwd root
6:列出你当前的虚拟交换机
esxcfg-vswitch -l
7:查看控制台的设置
esxcfg-vswif -l
8:列出系统的网卡
esxcfg-nics -l
9:添加一个虚拟交换机,名字叫(internal)连接到两块物理网卡,(重新启动服务,vi就能看见了)
esxcfg-vswitch -a vSwitch1
esxcfg-vswitch -A internal vSwitch1
esxcfg-vswitch -L vmnic1 vSwitch1
esxcfg-vswitch -L vmnic2 vSwitch1
10:删除交换机,(注意,别把控制台的交换机也删了)
esxcfg-vswitch -D vSwitch1
11:删除交换机上的网卡
esxcfg-vswitch -u vmnic1 vswitch2
12:删除portgroup
esxcfg-vswitch -D internel vswitch1
13:创建 vmkernel switch ,如果你希望使用vmotion,iscsi的这些功能,你必须创建( 通常是不需要添加网关的)
esxcfg-vswitch -l
esxcfg-vswitch -a vswitch2
esxcfg-vswitch -A "vm kernel" vswitch2
esxcfg-vswitch -L vmnic3 vswitch2
esxcfg-vmknic -a "vm kernel" -i 172.16.1.141 -n 255.255.252.0
esxcfg-route 172.16.0.254
14:打开防火墙ssh端口
esxcfg-firewall -e sshClient
esxcfg-firewall -d sshClient
15: 创建控制台
esxcfg-vswitch -a vSwitch0
esxcfg-vswitch -A "service console" vSwitch0
esxcfg-vswitch -L vmnic0 vSwitch0
esxcfg-vswif -a vswif0 -p "service console" -i 172.16.1.140 -n 255.255.252.0
16: 添加nas设备(a 添加标签,-o,是nas服务器的名字或ip,-s 是nas输入的共享名字)
esxcfg-nas -a isos -o nas.vmwar.cn -s isos
17:列出nas连接
esxcfg-nas -l
18: 强迫esx去连接nas服务器(用esxcfg-nas -l 来看看结果)
esxcfg-nas -r
esxcfg-nas -l
19:连接iscsi 设备(e:enable q:查询 d:disable s:强迫搜索)
esxcfg-swiscsi -e
20:设置targetip
vmkiscsi-tool -D -a 172.16.1.133 vmhba40
21:列出和target的连接
vmkiscsi-tool -l -T vmhba40
22:列出当前的磁盘
ls -l mfs/devices/disks
非原创,来自: http://sdhd.cn/blog/userid/adan/2649.html
1. 安装gonme核心包(如果是字符界面的话)
apt-get install x-window-system-core
apt-get install gnome-core
apt-get install metacity
apt-get install gnome-desktop-environment (optional)
2.安装vnc4server
apt-get install vnc4server
3.设置vncserver密码
# vncpasswd
Password: ******
Verify:*****
4.启动VNC server
# vncserver
# vncserver -kill :1 (:1表示5901端口)
5.修改~/.vnc/xstartup文件
#!/bin/sh
# Uncomment the following two lines for normal desktop:
#unset SESSION_MANAGER
#exec /etc/X11/xinit/xinitrc
[ -x /etc/vnc/xstartup ] && exec /etc/vnc/xstartup
[ -r $HOME/.Xresources ] && xrdb $HOME/.Xresources
xsetroot -solid grey
vncconfig -iconic &
xterm -geometry 80x24+10+10 -ls -title "$VNCDESKTOP Desktop" &
#twm &
gnome-session &
6.在服务器端退出gnome,否则客户端登录会出现字符界面。
$ sudo /etc/init.d/gdm stop
参考:
1. http://hi.baidu.com/yysirius/blog/item/2e5e0d085e84dfd562d986fe.html
2. http://www.blogjava.net/void241/archive/2008/07/19/216005.html
本文环境是在windows环境下,linux环境请参看其他文献。
1. 确认编程所用的字符集为uf8
<%@ page contentType="text/html; charset=UTF-8"%>
2. 确认MySQL所用的字符集为uf8
修改mysql目录下的my.ini文件
[mysql]
default-character-set=utf8
[mysqld]
default-character-set=utf8
3. 运行SQLFRONT,右键点击需操作的数据库,属性,把字符集改为utf8
完成。
Apache2.2下载地址:http://httpd.apache.org/download.cgi,本文所说的是使用了
Win32 Binary without crypto (no mod_ssl) (MSI Installer): apache_2.2.8-win32-x86-no_ssl.msi [PGP] [MD5]
的安装包。
使用Apache2.2来做服务器学习PHP,安装的过程很简单,唯一要注意的就是如果机子中同时装有IIS的话,因为IIS默认绑定的端口是80,所以在让你输入域名及邮箱地址那一步的时候,请注意要选择第二个,就是选择8080端口。其它的没有什么好讲的,一路Next…
可是安装完之后,右下角的图标却是红色的。放鼠标上去的提示是:No services installed ,很显然,是由于服务没有安装。
解决办法是:
我的安装路径是:D:\Program Files\Apache Software Foundation\Apache2.2
1、打开cmd定位到:D:\Program Files\Apache Software Foundation\Apache2.2\bin
2、输入httpd.exe -k install -n apache2
再输入net start apache2
之后我们看见了成功的信息
来自:http://hi.baidu.com/jinbihai/blog/item/5fd25cfc3c2698f5fd037fd6.html
帐篷可分为四季帐篷、三季帐篷,又分高山帐、旅游帐,单层、双层。
四季帐可在严寒冬季用,一般是双层帐,三季帐只在夏、春、秋使用。高山帐一般教小、矮,抗风、雪能力强,但顶级高山帐篷可能不太防雨(高山上只有雪,没雨),旅游帐大、高,舒适,抗风性差。单层帐一般教简单,轻,但防雨性不是很好,而且在寒冷天使用时,帐篷内层容易结露结霜,会打湿睡袋衣物(每人每夜通过呼吸散发的水分在几百毫升),但有顶级单层高山帐是单层的,防风透气性都很好,价钱也极高;双层帐内帐壁很薄,透气,外帐防水,罩在上面,往往还在内帐入口外能支起个小门厅,可放背包或做饭(一般做饭应在帐外,帐篷十分怕火,但也有天太冷出不去帐篷的时候),寒冷时内帐不结水,会结在外帐上,而且较少。
帐篷主要由帐篷支竿、外帐、内帐、帐钉组成。主要指标有大小、高度、重量等。支竿用来把帐篷支起形状,分为几节存放,中间由松紧绳穿起来,用时可以很容易地接起来。支竿强度十分重要,一旦折了,帐篷就变成个袋子了,在大风和大雪(积在帐篷上)时是对帐竿的严重考验,帐篷容易出问题的部分也就是帐竿。一般帐竿材料有玻璃刚和铝合金两种,铝合金的强度更高些。内帐比较轻薄,在气温高天气好时,可只支内帐。外帐没底,所以内帐帐底的防水性要好。外帐是防风防雨的,而且有不同的门厅设计。一般支帐篷是把帐竿穿在内帐上,再撑起来,最后挂外帐,钉帐钉,还有另外一种是把内帐平铺在地上,帐竿穿入四角,先撑起来,挂上外帐,抵挡住寒冷的大风,人钻进去,再把内帐挂在竿上,这两种帐篷有不同的结构设计。
帐篷是集体装备,旅游帐篷宽松,2人的底面在1.5m*2m左右,3人在2.1m*2m左右,高山帐较小,双人在1.3m*2m。还有高度,旅游帐高,在1.5m以上,舒适,但迎风面积大,不适于恶劣环境,高山帐低,趴在地上,不怕大风。相同质量当然是越轻越好。 帐篷主要适用于三种用途:一是休闲,没有底层,材料也没有太多要求,便于携带,主要是海滩等休闲场所遮阳、临时休息;二是一般野外用帐篷、有底层,材料要求相对较高、营杆玻璃钢制成,质轻便于携带。三是高山用特别帐篷、营柱由铝合金制成,帐篷外层防撕裂等。
帐篷不可使用洗衣机清洗。营柱必须和帐布分开摆,避免戳破帐布,储藏帐篷时,湿帐篷须摊开风干再收,即使攀登过程没有弄湿但登山者的呼气等会使湿气聚集于帐篷内,所以最好摊开架设,风干一段时间才收,帐篷要不规律折叠,因为使用帐篷次数愈多,摺叠太规律整齐会使摺痕硬化出现瓦解裂口。 帐篷的色泽最好选暖色调如黄色、橘色或红色。当你被困时,显眼的色泽会容易被人发现。帐篷内应避免炊事,尤其是使用汽油的炉具。这种炉具有刺激性气味,易溢出燃料油,并且火力无法控制,这都是潜伏的危机。特别是在防水尼龙布的帐篷内做饭常会有种窒息的感觉,炊事也会造成内帐凝聚许多小水滴,如果真有需要于帐篷内炊事,最好在通风佳的内外帐之间进行。
来自: http://club.xwhb.com/viewthread.php?tid=110830&extra=pageD1&page=3
户外运动鞋除了普通运动鞋的特点外,还要考虑以下几点:
1.鞋底。户外鞋的鞋底要硬,不能像普通运动鞋那样软。因为在走山路或走路多时鞋底硬会使脚不宜疲劳。鞋底纹路也非常重要。推荐Vibram鞋底,许多专业户外鞋都选择这个牌子的鞋底。
2.防水性。这是必须的,因为湿脚的散热量是干脚的24倍,爬山涉水时踏入水中是常事。一般防水鞋的防水处理主要有鞋表面喷涂防水胶或内衬防水膜。表面喷涂防水胶的防水性相对较差,且需要经常喷涂,现在高档的户外鞋都是内衬防水膜。
3.透气性。防水的负作用就是不透气,穿一双不透气的脚长时间长路是非常难受的,外面的水是防住,由于不透气,脚出汗后,脚感觉还是湿呼呼的。所以防水膜只防水是不行的,还要透气,不然只有一张塑料膜就可以实现防水。专业防水膜是Gore-Tex防水透气膜。Gore-Tex是美国W. L. Gore & Associates发明的,曾用于宇航服。它的原理是有许多小于水分子的小孔,水进不去,但可透气。
4.价格。现在如果在商场中的户外品牌专柜(如TNF,Black Yak,奥索卡)中买,只要是带Gore-Tex的都要1K到2K,价格不菲。如从北京秀水处淘,价格便宜,非常容易上当,买到假货。
说了这么多,当然要推荐性能好,价格便宜的了。
朋友买了一双意大利“Garmont”户外运动鞋,Gore-Tex内衬,Vibram鞋底。上去婺源旅游,有一天在雨中徒步穿越40里山路,穿着它,鞋内一滴水没有,脚始终是干干的。40里山路走下来,脚底一点不累,比在城内穿阿迪达斯运动鞋都舒服。为了测试它的防水性,曾站在小溪中,水没脚面10分钟,没有进一滴水。透气性也非常好,夏天炎热天气穿,感觉一点不“捂”。
不是做广告,只是向朋友们推荐。
一、登山鞋的分类
一般而言,走路用的登山鞋依用途分为:
1、mountaineering--极地攀登鞋:适用于冰雪岩混合的地形,必须有非常硬的鞋底且兼容于快扣式冰爪。但较不适用于平地健行。
2、trekking--长程重装健行鞋:山区长途健行,强调舒适耐用、远距离长时间使用,但不特别要求攀登功能。这种健行鞋鞋底中层较有弹性,使你踏出的每一步都能获得额外的推力;鞋底也同样的硬,让你能穿越崎岖困难的蛮荒地带。
3、backpacking--短程重装健行鞋:专为大背包健行设计--行程不是很长,但背包很重,所以鞋底也是硬底,且支撑力很好。
4、hiking--短程轻装健行鞋:轻装健行,因为背负重量不重,所以强调舒适性而舍弃硬鞋底。仍具有不错的支撑力。
四类鞋的特性比较:
1、hiking--短程轻装健行鞋
共同特性:防滑、耐操、透气快干
个别特性:短统、最轻量、通常不防水、软底
2、backpacking--短程重装健行鞋
共同特性:防滑、耐操、透气快干
个别特性:中统、轻量、硬底、通常防水
3、trekking--长程重装健行鞋
共同特性:防滑、耐操、透气快干
个别特性:中统、重量、较硬底、通常防水、保温
4、mountaineering--极地攀登鞋
共同特性:防滑、耐操、透气快干
个别特性:高统、最重量、超硬底、通常防水、高保温、适用冰爪
二、我该买哪一类的登山鞋?
使用下面的评分表,试着找出你需要的登山鞋类型
天数 坡度 路况 负重 天气
hiking [H] 当天往返 平坦 清晰好走 5公斤以内 好天气才走
backpacking[B] 1-3天 有些地方稍陡 崎岖不平 5公斤至15公斤 一般天气都会走
trekking[T] 3天以上 很多陡坡 砍路、找路 15公斤至30公斤 坏天气也走
mountaineering[M] 远征 冰雪岩混合峭壁 冰雪地自行开路 30公斤以上 会在暴风雪中前进
得分 H B H H B
范例1:只爬当天往返[H]、坡度稍陡、路况清晰[H]、负重5Kg[H]、一般天气都走,总计得3H2B,故最适合的是H--hiking
范例2:周休二日、很多陡坡[T]、崎岖不平、背25公斤[T]、坏天气也走[T],总计得3T2B,故最适合的是T--trekking
三、买一双好鞋的10个技巧
1、向高手请教,当你走进一家户外用品店买鞋时,要求最懂鞋的销售人员来协助,或是找一个登山高手帮忙。
2、一定要实际测量试穿,不要用之前买鞋的尺寸去推论,脚的尺寸是会变的。
3、不要被尺寸的号码迷惑,不论是英国尺寸、欧陆尺寸或美国尺寸(还分男女),尺寸的大小会受制鞋工厂的标准与设计所影响,最好还是多试穿几个邻近的尺寸 。
4、晚上买鞋!夜晚时,人脚会略微膨胀,就像在山上走路时一样。
5、要慢慢试,不要太心急做决定。准备两个半天来买一双好鞋,尽量多试试不同的厂牌与鞋款。
6、带自己的袜子,最好是用来搭配登山鞋的袜子
7、绑好鞋带以后,活动脚指看能否碰到前壁,新鞋穿久后,可能会稍微增加宽度与厚度,但绝不会增加长度,太短的鞋子往往会撞击脚趾头与指甲
8、试穿时,穿着鞋走一走,一方面让新鞋的皮革或纤维较具弹性,一方面也可试出是否有不易察觉的不舒服处
9、买适合用途的鞋,但不要想一双鞋应付所有的用途。也不要只为一次特殊行程去添购一双功能特别的鞋子。
10、抓住脚的感觉,挑一双最舒服的,用那双的标准去试所有的鞋子,只有一个人知道哪双鞋最适合你,就是自己。
四、鞋子耐用/保养的技巧
1.每次用完后清洁干净,稍微弄湿没关系,阴干它,决不要烘干鞋子。
2.鞋干燥后,可加强其防泼水功能(鞋油、腊、喷剂)
3.使用时绝对远离热源(炉子或火堆)、化学物品(除草剂、杀虫剂),他们会损坏鞋子的结构、材质。
五、该不该买GORE-TEX的鞋子?
你会发现加了Gore-Tex的鞋子就样镀金一样,价钱增加不少,那到底需不需要买Gore-Tex的鞋子呢?大家必须了解:在干燥的环境里,Gore-Tex的功能并不显著,特别是冰雪地里,许多皮制品配合外表强化涂布(喷剂/上蜡)表现也很好。但在深圳这种潮湿多雨的环境里,Gore-Tex高防水透气的功能表现仍是最好的;此外,搞清楚自己的用途也很重要,有些环境或是使用状况不需Gore-Tex,例如当天往返的健行,通常不需Gore-Tex这种高防水的功能;总之,你必须在防水性、透气性、价格、重量、维护难易之间取得平衡。
所以,如果你的活动类型是:长途、中级山、露营的健行,那我的建议是:多花点钱,买吧。
来自:http://club.xwhb.com/viewthread.php?tid=110830&extra=pageD1&page=2&sid=ntCqO6
详细: http://hi.baidu.com/%B7%C7רҵ%C0%ED%B2%C6/blog/item/da0067a752f3a692d1435888.html
什么是快门速度?
快门速度表示为1/2000s、1/2s、3s等,那么1/2000s和1/2s中哪个更快呢?当然是分母大的1/2000s更快。所谓快门速度快,表示快门开启到关闭的速度快,那么接收光线的量自然就会少。相反,开启快门的时间越长,接收的光线就会越多。
开启快门的时间越长接收的光线越多,但是对抖动更加敏感。通常,不受手的抖动影响的快门速度约为1/30s。当然,这并不说明所有人都一样,只能代表平均水准的人们。也就说,快门速度越快,抖动的影响越少,焦点越准,照片更加清晰。
什么是光圈?
光圈是在相机的镜头内部,用于调整进光圆孔直径的装置。光圈通常由5~8个叶片组成,可以通过改变其围成的圆孔的直径大小来控制进入镜头的光线的多少。在明亮的户外环境中,保持原快门速度的同时降低曝光度或保持原曝光度的同时减慢快门速度时就要使用光圈功能。
光圈口径越大,进入的光量越多。光圈值可以表示为F2.0、F2.8、F4.0、F8.0等,还可以采用如f/2、f/2.8、f/4在数值前增加“F(f)”的方法。光圈数值越小其口径越大,如F2.0时进入的光量就大于设为F8.0的光量。
快门与光圈的关系?
若把快门速度和光圈比作“水龙头”,那么光圈值是水龙头的大小,而快门速度就表示开放水龙头的时间。这个例子很恰当地比喻了快门速度和光圈值之间的关系。水龙头的口径越大(光圈值越小),在相同时间内能够接到的水量(进光量)越多。同样,水龙头的开放时间越长(快门开启时间越长),能够接到更多的水(光)
阳光四射、天空明朗的晴天,以快门速度1/125s,光圈值F8.0拍摄出了曝光恰当的照片,那么在明亮进一层的海边就要选择1/125s的快门速度,F11的光圈值,从而调整曝光度。阴天摄影时通常选择1/50s和F5.6,当然要在该基础上根据环境适当加减光圈值。
例如,天气晴朗,但光照较强的中午12点至下午的3点,选择1/125s、F11就可得到更加适合的图像。乌云密布的阴天最好设为1/60s、F5.6或F8.0。笔者所例举的参数也只是理论值,实际摄影中还需适当调整参数。
下面就例举了实际摄影中快门速度和光圈值对曝光度的影响。
我们捕捉了运动中的人像。适当调整了快门速度和光圈值后得到了曝光得当的照片。但是,我们发现即便曝光度适当,活动中的被摄体还是表现出了不同的效果。
我们的摄影对象是弹跳中的人物。有趣的是,1/400s、F1.6的照片中人物是静止的,而1/13s、F8.0照片中的人物却展现了弹跳的轨迹。对于运动的被摄体,快门速度具有决定的作用。拍摄运动中的对象时,应想好是要以较快的快门速度拍摄某个瞬间的动作,还是以较慢的快门速度表现动作的轨迹。尽管合理分配了快门速度和光圈值,得到了曝光得当的照片,其表现的图像还是有可能完全不同。
下面就以流水为例子。下图展现了图像均是以适当的曝光度拍摄的照片,只是快门速度和光圈值的设置不同。这两幅照片中表现出的水的流势完全不同。要想表现水的流势就应选择较慢的快门速度,若想捕捉水珠滴落的瞬间场景,就应以较快的快门速度拍摄瞬间影像。
镜头在光圈F2.0,快门1/60s的条件下拍摄出的图像焦点正确对准了人物,但后背景变得模糊;而F16、1s的条件下拍摄出的图像中人物和背景上都准确对准了焦距。人像照片的摄影目的在于塑造人物,因此通常模糊处理人物周围的背景。人像摄影中要重点调整光圈值,即先把光圈开至最大,再调出适当的快门速度。
总而言之,可通过调整快门速度和光圈值的方法来获得适当的曝光效果,但是即便其他设置相同,曝光程度还受摄影环境和表现主题的影响。
决定照片成败的底片质量,一方面受照相机和感光片质量优劣的影响,另一方面取决于能否准确曝光。什么叫准确曝光呢?准确曝光,就是拍摄者选择适当的快门速度与光圈,将被摄对象及原有的明暗关系,在底片上清晰、准确地显现出来。如果曝光过度,被摄对象的阴暗关系就不明显,整个底片呈灰黑色,俗称底片太“厚”,用这样的底片印放照片,照片呈灰白色,有的甚至无法印放照片。曝光不足,底片上只有淡淡的影像,呈通明透亮状,俗称底片太“薄”,用这样的底片印放照片,照片呈黑灰色,甚至全黑色,看不出被摄对象的细节。当你拿起相机准备拍照时,要使曝光准确,通常要考虑5 个方面的问题,即:曝光准确5 要素:
①被摄物体的运动速度;
②摄影环境的光亮强弱;
③被摄物体的颜色及其反射光线的能力;
④感光片的感光性能;
⑤各种摄影附加镜的运用。
光圈和速度都是用来控制进入照相机光线多少的装置,它们之间互相关联,又相互约束。当光线一定的时候,光圈开大一级,速度就要提高一级,光圈缩小一级,速度就要放慢一级。例如,用光圈11,速度1/60 秒,当光圈改用8的时候,速度就要相应改用1/125 秒。如果将速度改用为1/30 秒时,那么光圈就要相应改用16。光圈与速度间的互为变用关系,可以用曝光组合来表示:光圈8、速度1/125 秒;光圈11、速度1/60 秒;光圈16、速度1/30秒……任选其中一种曝光组合,对于一定的光线来说,照相机获得的曝光量是一样的。按照不同拍摄需求选用曝光组合,是控制准确曝光的重要依据之一。拍摄时是先确定快门速度还是先确定光圈系数?这是应该由被摄主体的具体情况和摄影者的创作意图来定。一般来说准确曝光仅是拍好照片的一个方面,摄影者要想充分发挥自己的创作意识,就应该灵活地掌握光圈和快门速度的曝光组合。光圈和速度有共同控制准确曝光的作用外,还各有自己的“专业分工”。光圈可控制景深,速度能将动体在底片上“凝固”下来。根据拍摄要求,要使胶片准确曝光,摄影者必须学会选择适当的曝光组合。倘若是拍摄运动物体,你要使照片清晰,首先要选择能将运动物体捕捉下来的快门速度,然后再配以相应的光圈;倘若要表现出景物一定的景深,这就要先确定光圈的大小,然后再配以相应的快门速度。选用曝光组合时,以下几条可作参考:
①物体运动速度快,快门速度就要快,光圈也相应要大。
②欲使照片景深大,光圈需要小,快门速度可相应放慢些。
③运动物体的运动方向不同,快门速度也不一样,从照相机前横穿而过的物体,选用快门速度一般要快,迎面向照相机或背向照相机运动的物体,快门速度选用可以慢一些。
④拍摄运动物体,随距离的变化,快门速度也要相应变化,距离越近,快门速度越快。
⑤使用的照相机镜头,焦距长,快门速度选用应相应快。⑥使用摄影附加镜,如:滤色镜、增距镜等,要适当增加曝光。不同附加镜的使用,增加的曝光量也是不一样的。
阳光由于季节、气候、地球纬度的不同,它的明亮度也不一样。在温热带地区,夏季阳光要比春秋季强两倍,比冬季强3~4 倍。夏季晴天,早上8、9点与下午4、5点,光线亮度大体相当。冬季上午9 点至下午3点,其间光线亮度变化不大。早晨日出前后与黄昏日落前后,光亮强度比中午弱10 倍。一天中,还有晴、多云、阴雨的变化,光线强弱也在变。强烈日光、薄云晴天、多云晴天、阴天,它们之间光线强烈的变化可这样认识:多云晴天光线要比阴天强1 倍,薄云晴天光线又比多云晴天强1 倍……如果使用的快门速度一定,在阴天光圈为5.6 的话,多云晴天就应改用8,薄云晴天就应改用11。如果使用光圈一定,在阴天使用的快门速度是1/30 秒,多云晴天就可以提高到1/60 秒,薄云晴天提高到1/125 秒。天气的变化是反复无常的,有时是很微妙的,以上这些变化关系,可以作为你在室外自然光下,拍摄照片曝光的参考。不同的被摄景物,反射光线的强弱也不同。明亮的景物和深暗色的景物,在一定光线条件下,曝光不能一样。一般明亮景物要比明亮景物增加一级曝光,深暗色景物又要比一般明亮景物增加一级曝光。什么是明亮景物呢?诸如海滨、雪景、乳白色建筑、穿浅色服装的人等等,都可作明亮景物看待;呈灰色的景物,可作一般明亮景物看待;树阴下的景物、深色建筑物、穿深色或着深红及墨绿服装者,可作阴暗景物看待。这种明亮与阴暗的表现,往往又不十分明显,拍摄者在控制曝光时,要学会抓住实际景物明暗的细微变化,区别对待。逆光拍摄照片应比侧光拍照增加1~2 级曝光,侧光拍照又应比顺光增加1~2 级曝光。例如:顺光拍照用1/125 秒、8 光圈;侧光拍照,在光线条件不变的情况下,就应改用1/60 秒、8 光圈,或1/125 秒、5.6 光圈;逆光拍照应选用更慢的快门速度或更大的光圈。拍摄者要掌握准确曝光,要考虑的因素是多方面的。所以当你手持照相机,选择曝光组合时,要冷静地对上述诸因素进行综合比较,优选出一组曝光组合,切不可面对拍摄对象,由于某种原因激动不已,选择曝光组合顾此失彼,造成曝光的错误而后悔。室内自然光摄影的曝光室内自然光摄影,要掌握准确曝光比较难,室内自然光有通过门窗直接射入室内的光、反射进室内的光,以及室内原有的各种光。室内自然光线下拍照,怎样才能曝光准确呢?这一节中,我们从影响室内自然光摄影的各种因素、室内自然光源摄影的基本方法两个方面来述说。我们已介绍了室外影响准确曝光的各种因素,这对室内自然光摄影同样适用。然而影响室内自然光摄影的,还有它特有的一些因素,如:阳光对室内直射和反射的影响,房屋的门窗多少、大小和开设方向的影响等等,在这样的环境中拍照,欲获得成功,主要*拍摄者自己多拍、多试验、多积累经验。如能使用侧光表当参谋,准确曝光的把握大些。在室内拍摄,由于光线受到限制,往往需要采用人造光照明,在这种情况下,应当避免不同色温的光源混合使用,室内自然光较暗,使用的光圈一般较大,快门速度也较慢。因此,使用的摄影器材,可选择口径较大、有B门装置的照相机,感光片可选用ISO200/24°或ISO400/27°的快片,尽可能配备三脚架和快门线。室内自然光因受建设门窗多少、大小和开设方向等限制,因此在确定曝光组合时,要充分观察和考虑这些条件,还要注意室外天气的影响。室内自然光照明的另一个特点是,被摄对象受光面明亮,背面则阴暗,这种明亮与阴暗的对比十分烈强。所以,如果在室内拍摄可移动的被摄对象时,应设法将其调整到门窗附近处,以降低这种反差。在移动被摄对象中,要特别注意不要使其一半处在直射光下,一半处在没有直射光的地方,以免造成半阴半阳的画面,必要时可利用窗帘、白纸挡起直接射入室内的光,使光线尽量柔和一些。被摄对象颜色浅,它的亮度就要比颜色深的高,因此曝光可少些。不同的物质,其反光性能强弱大不一样。反光能力强的,可减少曝光,反光能力弱的,通常说“吃”光的,应增加曝光。摄影实践中,拍摄者可以把浅色被摄对象置于深色背景前拍摄,或把深色被摄对象放在浅色的背景前拍摄。这样能使一些受光微弱的被摄对象突出于画面。利用室内一盏日光灯照明,将被摄者置于深暗色背景前拍摄,可使人物突出。利用室内自然光拍照,要注意光源的方向一般以采用侧光或顺光为好。如逆光拍摄中景、特写不宜选择窗口为背景,因为光比反差太大,会使色温失去平衡;如一定要逆光拍摄,要充分考虑拍摄效果,是拍摄剪影效果的照片?还是要求再现被摄对象的细节?如果是后者,拍摄者就要加用辅助光,或用反光物,或增大3~4 级曝光。人工光摄影的曝光人工光摄影,是指室内摄影中使用人工光源照明,诸如用碘钨灯、聚光灯、普通灯光等。利用人工光源拍照,要能准确控制曝光,要考虑的因素是:人工光源的亮度,这是由灯的多少、照明度大小以及被摄对象距离灯的远近等方面决定的。还有被摄对象反射光线的能力,周围环境影响等诸因素。如果是一定的灯距和光圈,100 瓦灯光照明,曝光需要1/30 秒的话,换用 200瓦的灯光照明,曝光则只需要1/60 秒。这说明照明灯光流明度增加多少倍,曝光时间则可相应减少多少倍。被摄对象距离灯光的远近,决定了曝光量的多少。要估计准确,可应用平方反比定律计算。如果被摄对象距离灯光由原来的5 米改为1 米,被摄对象所受的光就增强了25 倍,曝光量就应减少为原来的1/25。使用人工光摄影,掌握准确曝光只是一个方面,它还有一个如何布光的问题。在彩色摄影中,还有一个人工光的颜色问题,一般说来,人工光会给日光型彩色片带来色偏,如何避免,这将在彩色摄影一章里述说。如何在使用人工光摄影中,掌握好准确曝光,以上仅是提示,具体还要在实践中体会,当有一定经验积累时,准确掌握曝光也就不难了。闪光灯闪光灯是摄影者常用的一种人造光源。它便于携带,使用方便,不受昼夜、空间的限制。1.闪光灯的一般性能及其光线特点自从1887 年德国盖迪克和米索,首创燃烧镁粉用于摄影照明至今已有100 年了。闪光灯随现代科技的发展,日臻完善,其种类也愈来愈多,不管是哪一种闪光灯,从它的外型看,大体有电源和闪光两个部分。电源部分由电池、变压器、电容器组成;闪光部分包括闪光管和固定的反光罩、灯柄、开关等部件。目前闪光灯的闪光管可多次闪光,故又称万次闪光灯。早期的闪光灯,又大又重。后经不断改进,变得越来越轻便,并且还增加了光敏传感装置、专用色片等,功能也逐渐多了起来。有的可自动控制闪光灯的发光量,任意调节输出的发光量,有的闪光灯可调整它发出的光束角度,适应广角镜头、标准镜头和中长焦镜头的不同用光需要。一般闪光灯是以标准镜头拍照的,用光需要设计的,它发出的光束角度为50 度。闪光灯的持续时间因灯而异,有的明灭时间可短到1/5000 秒,有的可长到1/120 秒,基本能满足镜中快门各级速度的需要。使用集成电路和蓝硅晶体管组成的光敏控制电路闪光灯,还能根据拍摄距离的变化和被摄对象反光能力的强弱,控制闪光灯的发光量。距离近,反光能力强,闪光灯明灭时间就短;距离远,反光能力弱,闪光灯的明灭时间就长。总之,万次闪光灯具有光亮,适应性强,用途广,速度高,经济方便的特点,为现在很多摄影者普遍采用。闪光灯的光线特点是:
①光线亮度高;
②方向受拍摄者控制;
③光线颜色与日光相近
EJB3.0相关配置
作者:小鹤 2008-01-13 23:40:39
好久没看了,发现以前配置的jboss-4.2.1.GA版本的JBOSS服务器出了问题,启动时报N多错,找了好久也没解决,只知道可能是JDK1.5或者是jboss-4.2.1.GA里类文件的问题...郁闷```反正刚学EJB嘛,慢慢来,于是找了个旧点的版本jboss-4.0.4.GA用着,从头到尾的配置了一番```
·JDK11.5
·JBossIDE-2.0.0.Beta2-Bundle-win32.zip下载:http://downloads.sourceforge.net/jboss/JBossIDE-2.0.0.Beta2-Bundle-win32.zip?modtime=1160602856&big_mirror=1
·JBOSS-4.0.4.GA下载:http://superb-west.dl.sourceforge.net/sourceforge/jboss/jboss-4.0.4.GA.zip
·ANT下载:http://apache.mirror.phpchina.com/ant/binaries/apache-ant-1.7.0-bin.zip
·jboss-EJB-3.0_RC9_Patch_1.zip支持EJB3.0:http://downloads.sourceforge.net/jboss/jboss-EJB-3.0_RC9_Patch_1.zip?modtime=1166470845&big_mirror=1
JAVA_HOME ANT_HOME JBOSS_HOME都写入环境变量了,由于JBOSS-4.0.4.GA不支持EJB3.0,所以还要安装jboss-EJB-3.0_RC9_Patch_1,按照文件\jboss-EJB-3.0_RC9_Patch_1\INSTALL.html里的介绍安装,命令:
>cd jboss-EJB-3.0_RC9_Patch1
>ant -f install.xml -Djboss.server.config=all(默认从all启动)
这样就完成了,启动run.bat就OK...
还有个端口的问题,默认的8080端口和tomcat端口一样,所以会抛端口被占用的异常,还好我本来的tomcat服务器用的是9000端口.不过要改JBOSS端口也和tomcat差不多...在JBOSS目录下\server\all\deploy\jbossweb-tomcat55.sar下server.xml
<Connector port="8080" address="${jboss.bind.address}"
maxThreads="250" strategy="ms" maxHttpHeaderSize="8192"
emptySessionPath="true"
enableLookups="false" redirectPort="8443" acceptCount="100"
connectionTimeout="20000" disableUploadTimeout="true"/>
找到这段话 port="8080" 可以改了...修改端口后启动首次启动命令 run -c all --host=localhost就改变端口了!
来自:http://203.208.39.99/search?q=cache:UWkoaJCrIxYJ:blog.sina.com.cn/s/reader_4bc13748010082xd.html+jboss-EJB-3.0_RC9_Patch_1.zip&hl=zh-CN&ct=clnk&cd=2&gl=cn&st_usg=ALhdy28te1yJDRyhn5T4RGlrh4JijKJmjw
摘要:
安装场地准备
在准备安装场地时,可参考如下国家标准:
1、 GB50173-93《电子计算机机房设计规范》
2、 GB2887-89《计算站场地技术条件》
3、 GB9361-88《计算站场地安全要求》
机房的...
阅读全文
构建电子计算机主机房的一般标准
2008-9-29 陈志
随着计算机广泛深入应用于社会生活的各个层面,政府部门、企业、机关、学校及其他团体机构普遍建立起自己的计算机(网络)中心及主机机房,而主机机房是计算机(网络)中心的枢纽部分,其运作的稳定性及安全性对整个计算机网络具有十分重要的作用。下面是本人多年在机房建设中积累的一些经验。
一、 机房的环境要符合如下要求:
1、 采用活动地板。地板抬升高度应大于 35cm 。
2、 机房地面面层材料应能防静电。
3、 机房地板与天花的高度(距离)不少于 2.55 米;门的高度应大于 2.1 米;门宽应大于 0.9 米;地板的平均荷载应大于 5kN / m2 ;墙壁和天棚应涂阻燃漆。
4、 机房应采用全封闭房间,防止有害气体侵入,并应有良好的防尘措施。
5、 要有良好的空调系统。机房室温应保持在 10 ℃至 25 ℃之间,相对湿度应保持在 60 %至 80% 。
6、 机房要安装符合法规要求的消防系统。要安装防火防盗门,至少能耐火 1 小时的防火墙。
7、 机房内的尘埃要求低于 0.5um ;对于开机时机房内的噪音,在中央控制台处测量时应小于 70dB 。
8、 计算机房内的照明要求在离地面 0.8m 处,照度不应低于 200lx 。
二、 根据机房的设计要求、用途性质及周边环境采用相应的防雷接地措施。
如果机房所在的建筑物没有防雷设施,则根据机房所在地区的年平均雷击次数及年平均降雨量确定防雷措施。只有认真细致地做好防雷计划书,才能进行防雷设备的施工及安装。如果机房处于高层建筑中,而高层建筑一般都有防雷设备,可考虑与大楼共用接地体;机房一般选择在建筑物的第二或第三层。
三、 根据机房的安全保密级别,对机房采取抗电磁干扰及防电磁辐射的措施。如果有必要,要对机房实施全屏蔽方案。
四、 机房要建有 UPS 不间断电源系统。 UPS 电源应提供不低于 2 小时后备供电能力。其功率大小应根据机房内的网络设备功率进行计算,并具有 20-30% 的余量。
五、 必须有安全的监控系统。机房内可以设置彩色 CCD 摄像机,全天 24 小时对机房进行监控。并对监控的内容进行存储。
六、 电力供应采用强电系统。采用双路强电引入,每个机架都通过配电柜引出单独的供电线路到机架,每个机架可用电源功率应大于 5KVA 。
七、 布线工程应采用符合规范的智能综合布线系统。 综合布线系统( GCS )应是开放式结构,应能支持电话及多种计算机数据系统,还应能支持会 议电视、监视电视等系统的需要。
注:参考资料: 《建筑与建筑群综合布线系统工程设计规范》、《计算机场地安全要求》。
来自:http://www.gzhuayun.com/lunwen1.html
有不少关于 firefox上网慢的话题。
有的说把IPv6的协议禁用,还有的对firefox进行配置,实际使用效果都不好。
我仔细看过所谓对firefox的优化参数之后,发现它们大多只不过添加了 多线程下载网页的功能,所以实际用处不大。
不信,你可以打开终端, 同时用 w3m (文字版的互联网浏览器) 和firefox打开一个你从未访问过的网页,你会发现,其实w3m也很慢。
这就说明了,浏览慢,并不仅仅是浏览器的问题。
所有这些东西,其实只用安装一个 叫做 fasterfox 的firefox浏览器扩展插件就可以自动给你设置了。设置一些优化参数的确对加快firefox的运行,而不是浏览速度 ,有帮助。
上网慢 真正的原因,仔细观察会发现,主要在firefox 花费在解析域名 的时间上。
所以有必要设置DNS缓存。
windows下面是自动设置的,所以不用操心。
在ubuntu下面就要花费一番功夫了。
所以需要装一个 叫做 dnsmasq的软件,它能提供dns解析的功能。
当然,改造一下,也能提供dns缓存的功能。
_____________________________________
具体操作
---------------------
安装dnsmasq
命令: sudo apt-get install dnsmasq
编辑dnsmasq的配置文件
命令: sudo gedit /etc/dnsmasq.conf
找到下面这一项
#resolv-file=
用下面的一条语句替换
resolv-file=/etc/resolv.dnsmasq.conf
确保你没有更改过/etc/resolv.conf文件,如果改过,恢复原状
然后执行命令
sudo cp /etc/resolv.conf /etc/resolv.dnsmasq.conf
然后编辑resolv.conf
命令;sudo gedit /etc/resolv.conf
将其中的域名服务器全部去掉,加入以下这行
nameserver 127.0.0.1
保存,退出
执行以下命令
sudo gedit /etc/ppp/peers/wvdial
在 usepeerdns 前面增加 # ,也就是把这条语句覆盖掉。
以防,resolv.conf的设置被pppoe覆盖。
重启电脑。不重启,你会发现无法解析域名。所以一定要重启电脑,来达到重新启动dnsmasq的目的。
重启后, 你会发现firefox的解析速度比以前快了N个数量级。
来自 :http://zhidao.baidu.com/question/62950317.html
在web-inf/web.xml中加入
<listener>
<listener-class>SessionCount.SessionCounter</listener-class>
</listener>
注册listener即可统计在线人数
下面是我安装helix mobile server 10.0.9的日志,你可以做参考,非常的顺利,内核是升级为2.6的最新版,系统是dubuntu6.6。
dubuntu@tianqingliao:~/Desktop$ ./setup.bin
Extracting files for Helix installation........................
Welcome to the Helix Mobile Server 10.09 (10.0.9.2735) Setup for UNIX
Setup will help you get Helix Mobile Server running on your computer.
Press [Enter] to continue...
If a Helix Mobile Server license key file has been sent to you,
please enter its directory path below. If you have not
received a Helix Mobile Server license key file, then this server
WILL NOT OPERATE until a license key file is placed in
the server's License directory. Please obtain a free
Basic Helix Mobile Server license or purchase a commercial license
from our website at
http://www.real.com/. If you need
further assistance, please visit our on-line support area
at
http://service.real.com/.
License Key File: []: /home/dubuntu/Desktop/license.lic
Installation and use of Helix Mobile Server requires
acceptance of the following terms and conditions:
Press [Enter] to display the license text...
extracting text from file /home/dubuntu/Desktop/license.lic
TEAM ZWT
Choose "Accept" to accept the terms of this
license agreement and continue with Helix Mobile Server setup.
If you do not accept these terms, enter "No"
and installation of Helix Mobile Server will be cancelled.
I accept the above license: [Accept]: Accept
Enter the complete path to the directory where you want
Helix Mobile Server to be installed. You must specify the full
pathname of the directory and have write privileges to
the chosen directory.
Directory: [/home/dubuntu/Desktop]: /home/dubuntu/helix
Please enter a username and password that you will use
to access the web-based Helix Mobile Server Administrator and monitor.
Username []: admin
Password []:
Confirm Password []:
Please enter a port on which Helix Mobile Server will listen for
PNA connections. These connections have URLs that begin
with "pnm://"
Port [7070]:
Please enter a port on which Helix Mobile Server will listen for
RTSP connections. These connections have URLs that begin
with "rtsp://"
Port [554]:
Please enter a port on which Helix Mobile Server will listen for
HTTP connections. These connections have URLs that begin
with "http://"
Port [80]:
Please enter a port on which Helix Mobile Server will listen for
MMS connections. These connections have URLs that begin
with "mms://"
Port [1755]:
Helix Mobile Server will listen for Administrator requests on the
port shown. This port has been initialized to a random value
for security. Please verify now that this pre-assigned port
will not interfere with ports already in use on your system;
you can change it if necessary.
Port [29344]: 9092
You have selected the following Helix Mobile Server configuration:
Admin User/Password: admin/****
Encoder User/Password: admin/****
Monitor Password: ****
RTSP Port: 554
HTTP Port: 80
PNA Port: 7070
MMS Port: 1755
Admin Port: 9092
Destination: /home/dubuntu/helix
Enter [F]inish to begin copying files, or [P]revious to go
back to the previous prompts: [F]: F
Copying Helix Mobile Server files...
Helix Mobile Server installation is complete.
If at any time you should require technical
assistance, please visit our on-line support area
at
http://service.real.com/.
Cleaning up installation files...
Done.
dubuntu@tianqingliao:~/helix$ ./Bin/rmserver rmserver.cfg &
[1] 23093
./Bin/rmserver: relocation error: ./Bin/rmserver: symbol errno, version GLIBC_2.0 not defined in file libc.so.6 with link time reference
dubuntu@tianqingliao:~/helix/Bin$ export LD_ASSUME_KERNEL=2.4.1
dubuntu@tianqingliao:~/helix$ ./Bin/rmserver rmserver.cfg
Helix Mobile Server (c) 1995-2006 RealNetworks, Inc. All rights reserved.
Version: Helix Mobile Server 10.09 (10.0.9.2735) (Build 81568/6277)
Platform: linux-2.2-libc6-i586-server
Using Config File: rmserver.cfg
Creating Server Space...
Server has allocated 256 megabytes of memory
Starting PID 23275, procnum 1 (timer)
Calibrating timers...
Interval timer enabled (10ms resolution).
Starting PID 23277, procnum 2 (core)
Starting Helix Mobile Server 10.00 Core...
E: could not open <128.128.3.155:554> - Permission denied
Errors occured, check log file
dubuntu@tianqingliao:~/helix$ sudo ./Bin/rmserver rmserver.cfg
Helix Mobile Server (c) 1995-2006 RealNetworks, Inc. All rights reserved.
Version: Helix Mobile Server 10.09 (10.0.9.2735) (Build 81568/6277)
Platform: linux-2.2-libc6-i586-server
Using Config File: rmserver.cfg
Creating Server Space...
Server has allocated 256 megabytes of memory
Starting PID 23352, procnum 1 (timer)
Calibrating timers...
Interval timer enabled (10ms resolution).
Starting PID 23356, procnum 2 (core)
Starting Helix Mobile Server 10.00 Core...
1 CPU Detected...
Linux kernel version 2.6.15-26-686 detected
Testing File Descriptors...
Setting per-process descriptor capacity to 677(1011), 11...
Testing Mutex...(250.39 ops/usec)
Testing AtomicOps...(27.39 ops/usec)
I: Loading Plugins from /home/dubuntu/helix/Plugins...
I: slicensepln.so 0xb7dfed90 RealNetworks Licensing Plugin
I: mp3fformat.so 0xb7ddcdf0 RealNetworks MP3 File Format Plugin
I: imgfformat.so 0xb7d45f40 Helix JPEG File Format Plugin
I: imgfformat.so 0xb7d45f40 Helix GIF File Format Plugin
I: imgfformat.so 0xb7d45f40 Helix PNG File Format Plugin
I: imgfformat.so 0xb7d45f40 Helix RealPix Format Plugin
I: imgfformat.so 0xb7d45f40 Helix RealPix JPEG File Format Codec Plugin
I: imgfformat.so 0xb7d45f40 Helix RealPix GIF File Format Codec Plugin
I: imgfformat.so 0xb7d45f40 Helix RealPix PNG File Format Codec Plugin
I: imgfformat.so 0xb7d45f40 Helix WBMP File Format Plugin
I: smlfformat.so 0xb7d0e590 RealNetworks SMIL File Format Plugin
I: mpgfformat.so 0xb7cecc70 RealNetworks MPEG File Format Plugin
I: smplfsys.so 0xb7ccc310 RealNetworks Local File System
I: httpfsys.so 0xb7c83610 RealNetworks HTTP File System with CHTTP Support
I: httpfsys.so 0xb7c83610 RealNetworks RFC 2397 Data Scheme File System
I: adminfs.so 0xb7c2f2e0 RealNetworks Admin File System
I: shelfsys.so 0xb7e4d314 RealNetworks Shell File System
I: tagfsys.so 0xb7c030d0 RealNetworks XMLTagFileSystem
I: hxsdp.so 0xb7be4f5c RealNetworks SDP Stream Description Plugin
I: authmgr.so 0xb7bb9c60 Helix Authentication Manager
I: tmplgpln.so 0xb7b71ef0 RealNetworks Custom Logging Plugin
I: ppvbasic.so 0xb7b517a4 RealNetworks FlatFile Database Plugin
I: svrbascauth.so 0xb7b36b20 RealNetworks Basic Authenticator
I: dbmgr.so 0xb7b1ca30 RealNetworks Database Manager
I: ramplin.so 0xb7b07310 RealNetworks Ramgen File System
I: pplyplin.so 0xb7ad3c40 RealNetworks Scalable Multicast Plugin
I: qtbcplin.so 0xb7aae3b0 RealNetworks QuickTime Live Broadcast Plugin
I: smonplin.so 0xb7a96ad0 RealNetworks System Monitor
I: ppvallow.so 0xb7a74764 RealNetworks Pay Per View Allowance Plugin
I: rn5auth.so 0xb7a59150 RealNetworks RN5 Authenticator
I: avifformat.so 0xb7a44490 RealNetworks AVI File Format Plugin
I: swfformat.so 0xb7a0f2a0 Helix Macromedia Flash 4 File Format Plugin
I: mp4fformat.so 0xb79cc550 RealNetworks Mpeg4 File Format Plugin
I: rmfformat.so 0xb7978b70 RealNetworks RealMedia File Format Plugin
I: rtfformat.so 0xb7938fa0 Helix RealText File Format Plugin
I: allow.so 0xb7917ec8 RealNetworks Basic Allowance Plugin
I: inclrep.so 0xb7908a40 RealNetworks Include TagHandler
I: plusplin.so 0xb78dbad0 RealNetworks PlusURL File Format Plugin
I: vsrcplin.so 0xb78980c0 RealNetworks View Source Tag Replacement Plugin
I: vsrcplin.so 0xb78980c0 RealNetworks View Source Allowance Plugin
I: vsrcplin.so 0xb78980c0 RealNetworks View Source File System
I: brcvplin.so 0xb78357a0 RealNetworks Broadcast Reception Plugin
I: meiffpln.so 0xb7807560 RealNetworks Media Export File Format Plugin
I: meiplin.so 0xb77e1030 RealNetworks Media Export Interface Plugin
I: miiplin.so 0xb775ff10 RealNetworks Media Import Plugin
I: rncache.so 0xb7726210 RealNetworks Cache Plugin
I: asfwmpln.so 0xb7709e38 RealNetworks Active Stream Format Version 1 Plugin
I: asncfsys.so 0xb76f0c80 RealNetworks Network Optimized File System
I: encfs.so 0xb76de850 RealNetworks Encoder Administration File System Plugin
I: ptagent.so 0xb76ba780 RealNetworks PSS Profile Transfer Agent
I: adtagrep.so 0xb7687030 RealNetworks Ad Insertion Tag Replacement Plugin
I: asxplin.so 0xb7672300 RealNetworks Asxgen File System
I: csspplin.so 0xb7656550 RealNetworks License Subscriber Plugin
I: dlicepln.so 0xb762a260 RealNetworks License Publisher Plugin
I: pxadsvff.so 0xb75ee0a0 RealNetworks RealPix Adserving File Format Plugin
I: archplin.so 0xb755fb4c RealNetworks Live Archiver Plugin
I: xmlcfg.so 0xb7520ce0 RealNetworks XML Configuration Plugin
I: redbcplin.so 0xb74f5580 RealNetworks Broadcast Redundancy Plugin
I: wmmcastpln.so 0xb74d41f0 RealNetworks Windows Media Multicast Plugin
I: bdstplin.so 0xb74a07f0 RealNetworks Broadcast Distribution Plugin
I: wmsrcpln.so 0xb7484f30 RealNetworks Windows Media Live Broadcast Source Plugin
I: encoplin.so 0xb73e3630 RealNetworks Encoder Broadcast Plugin
I: cdadplin.so 0xb739a940 RealNetworks Content Distribution Advise Plugin
I: cdistpln.so 0xb7386810 RealNetworks Content Distribution Plugin
I: sdpgenfsys.so 0xb7372750 RealNetworks Dynamic SDP Generation Plugin
I: smlgenfs.so 0xb732aa40 RealNetworks SMIL Generation File System
I: ppvmsql.so 0xb72e597c RealNetworks Mini SQL PPV Database Plugin
Starting PID 23357, procnum 3 (rmplug)
Loading Helix Server License Files...
Starting PID 23358, procnum 4 (rmplug)
Starting PID 23359, procnum 5 (rmplug)
Starting PID 23360, procnum 6 (rmplug)
Starting PID 23361, procnum 7 (rmplug)
Starting PID 23362, procnum 8 (rmplug)
Starting PID 23363, procnum 9 (rmplug)
Starting PID 23364, procnum 10 (rmplug)
Starting PID 23365, procnum 11 (rmplug)
Starting PID 23366, procnum 12 (rmplug)
Starting PID 23367, procnum 13 (rmplug)
Starting PID 23368, procnum 14 (rmplug)
Starting PID 23369, procnum 15 (rmplug)
Starting PID 23370, procnum 16 (rmplug)
Starting PID 23371, procnum 17 (rmplug)
Starting PID 23372, procnum 18 (rmplug)
Starting PID 23373, procnum 19 (rmplug)
Starting PID 23374, procnum 20 (rmplug)
Starting PID 23375, procnum 21 (rmplug)
Starting PID 23376, procnum 22 (memreap)
Starting PID 23377, procnum 23 (streamer)
来自: http://forum.ubuntu.org.cn/viewtopic.php?p=89682&sid=ad651e4a5fa4760ac57d4de34290272c
上述错误我遇到两种情况,一种是在打开打开SQL Server 2005时弹出的,另一种是在应用程序连接SQL Server 2005时出现的.归纳了一下,由以下几个原因:
1.数据库引擎没有启动.
有两种启动方式:
(1)开始->程序->Microsoft SQL Server 2005->SQL Server 2005外围应用配置器,在打开的界面单击"服务的连接的外围应用配置器",在打开的界面中找到Database Engine,单击"服务",在右侧查看是否已启动,如果没有启动可单击"启动",并确保"启动类型"为自动,不要为手动,否则下次开机时又要手动启动;
(2)可打开:开始->程序Microsoft SQL Server 2005->配置工具->SQL Server Configuration Manager,选中SQL Server 2005服务中SQL Server(MSSQLSERVER) ,并单击工具栏中的"启动服务"按钮把服务状态改为启动;
使用上面两种方式时,有时候在启动的时候可能会出现错误,不能启动,这时就要查看"SQL Server 2005配置管理器"中的SQL Server 2005网络配置->MSSQLSERVER协议中的VIA是否已启用,如果已启用,则把它禁止.然后再执行上述一种方式操作就可以了.
2.进行远程连接时,是否已允许远程连接.
SQL Server 2005 在默认情况下仅限本地连接.我们可以手动启用远程连接.在上面第一种方式中,找到Database Engine,单击"远程连接",在右侧将"仅限本地连接(L)"改为"本地连接和远程连接(R)",并选中"同时使用TCP/IP和named pipes(B)".
3.如果是远程连接,则还要查看连接数据库的语句是否正确,登录账户是否正确,密码是否正确等.
我在一次局域网内连接数据库时,就要因为连接字符串出了问题,在局域网内一台机子连接另一台机子上数据库时,把server=装有数据库的另一台机子的IP.我在连接数据库时总是出现上面的错误,查了好长时间,后来发现,IP没有正确到传到连接字符串,原来我在连接时,使用的是本地,即127.0.0.1,输入的IP没有传到连接字符串.
该文章转载自网络大本营:http://www.xrss.cn/Dev/DataBase/20075712956.Html
1、输入命令行
打开“开始”→“运行”,在“运行”一栏中输入“Rundll32 netplwiz.dll,UsersRunDll”命令打开用户帐户窗口(注意区分大小写),去除“要使用本机,用户必须输入用户名密码”复选框中的勾号。
大多数实现自动关机的方法都是使用一些第三方软件,这样不仅麻烦,而且为实现这个小功能而专门动用一个软件,显的小题大做了!
其实Windows XP(Windows 2000也可以)自身就具备定时关机的功能,下面我们就来看看如何实现Windows XP的自动关机。
Windows XP的关机是由Shutdown.exe程序来控制的,位于Windows\System32文件夹中。如果想让Windows 2000也实现同样的效果,可以把Shutdown.exe复制到系统目录下。
比如你的电脑要在22:00关机,可以选择“开始→运行”,输入“at 22:00 Shutdown -s”,这样,到了22点电脑就会出现“系统关机”对话框,默认有30秒钟的倒计时并提示你保存工作。如果你想以倒计时的方式关机,可以输入“Shutdown.exe -s -t 3600”,这里表示60分钟后自动关机,“3600”代表60分钟。
设置好自动关机后,如果想取消的话,可以在运行中输入“shutdown -a”。另外输入“shutdown -i”,则可以打开设置自动关机对话框,对自动关机进行设置。
Shutdown.exe的参数,每个都具有特定的用途,执行每一个都会产生不同的效果,比如“-s”就表示关闭本地计算机,“-a”表示取消关机操作,下面列出了更多参数,大家可以在Shutdown.exe中按需使用。
-f:强行关闭应用程序
-m \\计算机名:控制远程计算机
-i:显示图形用户界面,但必须是Shutdown的第一个选项
-l:注销当前用户
-r:关机并重启
-t时间:设置关机倒计时
-c "消息内容":输入关机对话框中的消息内容(不能超127个字符)
要想定时关机或重启,可以把它做成BAT文件,然后再用计划任务执行。如:
定时关机
at 10:00 shutdown -f
存为"关机.bat"
新建一个计划任务,程序指向这个BAT文件,下一步步,完成,就OK了。
定时重启:
编辑reboot.bat,内容为shutdown -r -t 0,保存。
添加计划任务,程序指向这个bat文件,按照步骤下来即可。
有教练指导当然好,但不是所有人都能有这样的条件,因此大傻为这样的爱好者出点儿主意:
不要来了就打,撕杀一通,汗是出了,但不好的还是不好,不精的还是不精,是打球还是练球,要搞清楚,建议把每次打球的时间分为两段,第一阶段为练球,第二阶段为打球。以下为简单的练习方案:
一、直线高远球的练习:两人一组,沿边线反复打高远球,目标为后场边角,不要怕失误。共5分钟。(熟练后可练一些后场平高球)
二、对角高远球的练习:两人一组,反复打对角高远球,目标为后场边角,不要怕失误。共5分钟。(熟练后可练一些后场平高球)
三、网前球的练习:20颗球为一组,一人手抛,一人搓或勾或扑,二人交替进行,共10分钟。
四、杀球接杀球的练习:刚开始杀球方不要追求力量,先要落点,准确性提高后,逐渐加力。接杀方可进行挡垫网和绷后场的练习,挡垫网时注意拍面的控制,要追求质量,同时手臂不要过于紧张。绷后场球时,击球点要尽量靠前一些,绷球时挥拍幅度不宜过大。(击球点靠前就是手握球拍,拍头半向下,由左到右,围绕身体的前侧,空画个半圆,击球点应该在半圆画线附近)二人交替进行,共10分钟。
五、直线斜线劈吊球练习:两人一挑一劈吊,挑球一方尽量将球到位,目标后场边角尽量高些,劈吊方的练习开始要追求质量熟练后逐步加速。二人交替进行,共10分钟。
六、全场步法练习,请参考技术论坛的:《论步法的急停急起(作者:丽然)》 每组1分钟,共5-7组。
其实,羽毛球的训练是复杂多样的,像打多球、点控点、多打一等等训练都是提高能力的有效方法,大傻会把平时的训练方式总结一下,结合爱好者的具体情况,变通的,逐步提出更多的练习方案。不足之处,欢迎指正。
爱好者自行训练基本模式(二)
二控一练习(简单二打一):
需三人交替进行,目的:提高个人全场跑动和基本控球能力。
方法:
一、两人方:一人站在网前,只挡放网,不得扣杀球。为保证对面练习者跑动时的连续性,不要求回球质量过高。另一个人在后场(最好这个人水平略高一些的),打各种球给对方,尽量多利用曲线。
二、一人方:模仿实战,尽量作到回球到位,追求落点。(对于相对差一些的爱好者,可只打半场直线的跑动练习,就是一个网前球,一个后场球。练习者跑进行直线跑动练习。)
要点:处理后场高远球时,一定要利用蹬转体(或跳转体)挥拍击球,无论网前还是后场,处理完球后,还原要快,注意跑动中的急停启动和急停蹬转的合理运用,体会变速加速,脚下要弹踏起来。三人轮流交替进行,每人5分钟。
步法的练习细节可参照本论坛上的《论步法的急停急起(作者:丽然)》进行。
爱好者自行训练基本模式(三)
网前抢点练习:
两人一组。一人站在发球线上,手抛网前球,另一人隔网站在发球线附近,反复上网抢点进行压、推、挑、放的练习。
说明:
压:是指在抢到较高点时的网上扑杀。
推:是指抢到的高度已经无法下压时,推后场两点的平快球。
挑:是指高度已经无法推压的球,挑后场或搓放网的球。
放:搓放网。
要点和需要注意的是:
抛球一方:球的高度不宜质量过高,要配合接球方的节奏,当对方回到发球线时再喂球。
接球一方:准备姿势为,右腿在前(左手持拍者相反)。选择的上网路线应该在全场的中场防守点和练习时的击球点之间,注意不要偏离。上网时要利用垫步蹬跨的步法,启动的同时球拍向网上击球点处快速伸出,出手击球动作不要过大,多体会利用手腕和手指的发力,要追求落点和质量。最后一步落地时前脚掌外翻,处理完球马上右脚保持在前后退还原,保持上网和还原时的连贯性,要有节奏感。注意安全,不要打伤抛球方。每组30-50个球,两人交替进行。
爱好者自行训练基本模式(四)
对吊上网
俩人一组,甲方辟吊直线网前球,然后快速上网,将乙方回的网前球挑后场直线高远。乙方挡或放网,然后快速退向后场,再次劈吊直线网前球,这样就行成俩人循环不断的对吊上网练习。
练习时应该注意的是:
一、辟吊时手臂手腕放松,但要追求挥拍动作的一致性,注意挥拍的速度。
二、后场击球脚下一定要做跳转或蹬转,前后场跑动时力求步法的规范性,还原要快。
三、网前的挡放网不易质量过高,以免破坏俩人循环跑动的连续性。
四、重点:在前后跑动的过程中,在中场附近要利用蹬转体的有效加速度,来完成前后移动时重心转换,这一点一定要多多体会!
爱好者自行训练基本模式(五)
利用手抛球进行上网推搓球然后快速反方向的腰部低手防守训练:
比如上网前正手防腰部反手:
正手俩人一组,一人站在网前利用手抛球,先给对方手抛网前的正手位,然后模仿劈掉的速度将球快速抛向对方的反手腰部边线附近。注意节奏,要接近实战,不要过快或过快。
接球方:站在单打防守位置,当对方抛出正手网前球时,利用急停加速启动,快速上网或推或搓,然后快速还原,还原到位的同时急停蹬转体,向反手位跨步,进行反手的低手接球,最好是挡网,可直线或斜线,然后快速还原再次上网
上反手网前防正手腰部低手的练习方法同上。
注意:正手要求一定抢高前点处理,反手要求绝对要低手处理,不要求抢前点或高点,这样才能达到一攻一防的练习效果,正手位到反手位的跑动应该是明显的小斜线。多多体会中场的急停启动和急停蹬转,以及启动后的加速度。
20-30颗球为一组,俩人交替进行。
爱好者自行训练基本模式(六)
急停启动的两人协助练习
原地的急停练习
一人在场地的一边,最好站在凳子上,利用头顶发球的方式,将球打到高处。练习者在另一边的场地中,以右手持拍为例,右脚在前,两脚自然略宽于肩站好,盯着对面发球者的球拍,在击球的一瞬间,跟着做原地的急停,两人循环反复练习,直到跟对面发球者的击球时间绝对合拍为止。
练习技巧:
都知道羽毛球的飞行需要时间过程,而从举拍到挥拍到击球也是需要时间和过程的,所以,在目测到羽毛球飞行的落点,和击球者的引拍预备击球时,就要做好急停的准备了,在对方开始发力即将击球的那一瞬间,就是你做急停的时候了,有人理解急停就是原地一个双脚的小跳,也不为错,就是要求那一小跳的落地时间,要跟对方打到球的时间一致。
爱好者自行训练基本模式(七)
急停启动的两人协助练习
原地的急停加启动练习
在熟练的掌握上面的急停练习后,开始加入启动,启动分为前后两种方式,先练习向后的启动。
向后的急停启动
练习方法是:发球者发后场的高远球,练习者结合急停技巧在急停落地的同时,前脚发力向后快速蹬转带动身体同时向后转体,然后做一个或两个并步继续向后场低线附近,做一个转体挥拍的动作,顺势还原到启动时的位置,两人循环反复练习,直到跟对面发球者的击球时间合拍为止。
向前的急停启动
练习方法是:发球者发前场小球,练习者结合急停技巧在急停落地的同时,利用后脚(左脚)先做一个垫步带动右脚顺势向前用力蹬跨一大步,到网前,也就是说从圆心(指防守位置)启动到网前,是一个半步和一个大步,一共是一步半到网前。然后做一个转体网前挑球的动作,再后是右脚保持在前,用并步或双脚向后的一个小跳,的还原到启动时的位置,两人循环反复练习,直到跟对面发球者的击球时间合拍为止。
注:在向前跨出的那一大步落地的时候,右脚的脚尖要向外展,落地时是从脚跟的外侧到脚的外侧然后整个脚掌完全着地,这样才能保证在不同条件的场地上,脚踝不受伤!
爱好者自行训练基本模式(八)
三人组合训练之杀 挡 绷
论坛上很多朋友对杀球和接杀球的练习方式感兴趣,大傻根据业余爱好者的特点,给大家出个三人组合练习模式,希望对大家能有些帮助。
注释:三个人按不站位,都能得到各自所在位置的实战练习,杀:杀球;挡:中距离挡放网;绷:接杀球起后场
练习方法:
俩人一组对一人,俩人这边前场一人负责回放网练习,另一人在后场进行杀球训练。
训练要求与目的:
前场者:以挡回放网为主要练习,不容许使用网前的搓球技术,练习目的在于中短距离的手感,由于限制了搓球所以降低了回球难度,保证了双方来回练习的连续性不被破坏。
后场者:只要见到高球必须杀球,刚开始的时候,做单边的练习,就是只杀一条边,先追求落点准确,逐渐加力量,两边交换练习但是固定的定点杀球。等两条边的定点练习感觉好起来,准确性高起来后,再开始两条边不定点杀球练习 。(初期练习者比较急,希望能够认真领会,要学追求落点第一,力量第二,为什么?等你在实战中能够运用上的时候你就知道了,当然又准又很那就更好了呵呵!)
对面防守者:刚开始的时候,可以站位略靠近边线,接杀球先直线挡垫到对方网前就行了,无所谓质量,逐步要求提高质量,注意接杀球时手上要绝对放松,反手要学会利用拇指,控制好拍面就行了,两条边接杀球的练习都是从固定点接杀开始的。当两条边接杀熟练后,防守者要逐渐将站位向场地中心调整,并要求做些接杀挡斜线网前。这个环节的练习时,要注意的是手腕和拍面,手腕的控制和略为倾斜的拍面是接杀球挡斜线网前的关键,很多更大的角度不止是靠手腕去做的,敲门在倾斜的拍面上,也就是说人手腕的物理角度加上合理倾斜的拍面角度,可以打出意想不到的斜线角度,这些要靠自己慢慢体会了。再有在接杀球时要注意对自己身体躯干部分的整体控制,不能过于松了,脚下要做好弓箭步出击。当固定落点的挡放技术越来纯熟后,就可以开始做两边不定顺序的实战性接杀球练习了。再熟练些后就可以根据对方杀球落点的难易程度练习绷后场直线和斜线的练习了,也就是说可以自由选择回球落点了,网前后场随意了。绷后场的手上技巧在于击球前虚握球拍,击球瞬间借助小臂和手腕的力量突然握紧球拍发力,注意击球后挥拍动作不要扬出过老,尽量早些收拍以备能够快速再次防守。
练习时击球的基本顺序
防守方先发高球,对方后场开始杀球,防守方挡放网,前场者回挡放网,防守方上网挑高球。。。。。。。反复循环如此。三人五分钟一换交替练习。
论步法的急停急起(原创)
练习防守技术时, 因为受控于对手,经常会判断错误或被骗, 这时候急停急起的步法调整就很重要。 通常停顿了后起蹬的用力是相反的方向, 即急停向后就重心向前再用力向后蹬; 急停向前就是重心向后再向前蹬。 要注意的是停了后先向球的方向转身。 练习时大多数朋友都是停了后就没再起动了, 其实就算接不到球也应该照出脚, 久而久之就可以练出挣扎的步法。 另外上网时很多人都只出右脚跨一步,绝对到不了位的, 应该先出左脚或反手位先转身,这样才可以接到近网的球。
什么叫“急”呢? 就是就是判断错来球后,停顿调整, 立即可以出步伐来接球。 在练习多球接杀吊的训练中, 练习时不一定会接到每一球, 但要求必定要出脚, 而且是先出左脚调整。 另外接完吊球后要向中间退, 起码退一步(在没确定对方一定打重复球时), 很多朋友都只退到网前的发球线, 对于接杀是很不利的。
作者:丽然
************************************************************
一般急停时间应该在对手击球的同时进行, 上网采用后交叉步, 比如右手选手, 正手位先启动左脚进行后交叉垫半步, 随之有脚大步登跨一步就到网前了, 反手位右脚先急停启动,然后就跟正手位上步方法相同了。
关键1、 在处理完网前球后 向中场还原时 右脚一定保持在前, 否则对手回放网前的话你就难受了)
关键2、 中场防守时右脚要保持略前, 这样从中场向后场退步时可直接利用急停加速向后蹬转体, 使你的后退很快。
关键3、 无论向前还是向后, 都要学会利用急停的爆发力完成, 所以急停启动和急停蹬转都几乎是同时完成的, 绝对不要二次启动。 左手持拍者参考以上时相反就是了。
来自:http://awen.bloghome.cn/posts/22432.html
1.清除vista sp1备份文件:
cmd
vsp1cln
2.清除vista sp2备份文件:
cmd
compcln
3.取消休眠功能
cmd
powercfg -h off
测试:NS8000入手后,我一直没用在双打上,只在单打中使用,所以以下的测试都是单打的感觉。先从外观看,照片大家是见多了,只能说很PL,银色的外观,很眩目,拍框是盒式(BOX)结构,类似于TI10,比NS7000的AR结构WIDEBODY有很大差距,看上去更小巧玲珑,精致。拍框的3点和9点处有(SOLID。。)字样,NS的技术体现在拍杆和框上,估计是增加了强度。上了BG80线,26B,这80线的弹性是很好,用的现在没感觉掉磅。
1、拉后场:上场练习,感觉很轻松,不费大力气就能拉到底线位置,单打比赛中包括在被动起高远时,都能一拍到底,不拖泥带水,完全能做到物随心役。评分:10分(满分)
2、网前处理:包括主动放网前小球,勾对角,以及后场的劈吊网前等,手感很轻盈,动作不大,轻搓,拈,都很舒服,自如,有CAB20的手感。均衡。评分10分
3、网前平抽挡:这本来是双打的技术,单打用的比较少,但为了全面衡量,我和对手实验了一把,网前的平抽挡,感觉NS8000比NS7000的出球要快,NS7000有的时候会不小心击球在宽宽的框边,NS8000就要表现出色些,平抽比TI10要舒服很多,至少是省力了不少,还试验了把后场的平抽球,很是暴力,控制很好。评分:9分
4、杀球:这NS8000,广告是早就说了是“轻量的设计”,把重量从拍头移到了拍柄,那就很担心杀球的质量了,尤其是NS8000的进攻能力和MP100旗鼓相当,很让粉丝们疑惑,我的测试后分析:杀球,主要是要求拍面能“包”住球,能控制球的走向,能瞬间发力,把球如子弹样的打出去,而且希望能很好的控制落点。把NS8000,NS7000,CAB30进行对比后,我觉得落点控制NS8000》CAB30》NS7000,NS8000的杀球场是一气呵成,突击速度很快,极其的暴力,落点的控制也很精确。
5、其他;单打中用NS8000很久,越发感觉NS8000的设计是突破性的,不同于已有的CAB,MP,AT系列产品,设计上的转移重量分布,但没有因此而牺牲强大的突击火力,和TI10的设计不同,TI10明显的是头重,单打一会儿就感觉力不从心了,但要是你使用了NS8000,你就不会有这样的感觉,我单打有局球几乎是攻击到底的,不管最后的成绩如何,你不觉的累这是很明显的感觉。
NS8000的中杆弹性好于TI10,力的传导要好。都是7MM的细杆设计,与NS7000的普通杆设计是俩条路线。
综合:如果上次的NS7000,我的设计是为类似龚智超,王莲香设计,为哈菲兹设计,那么NS8000,就应当是给进攻性选手设计的,对于要求突击速度要快,连续进攻,力量大,打点准确的选手而言,是不二的选择。这次苏杯,期望中有NS8000的做秀机会,但想来AT700占了主角也很正常,在理。苏杯是国家的荣誉,容不的闪失,新装备如果表现不佳,打陋了,不好交代,还不如 驾驭已经很顺手的AT700呢,AT700的进攻也很好,我尝试了打了些 时间,感觉AT700的进攻不及NS80000,中杆硬度要硬过NS8000一点,弹性不如NS8000,最受不了的是AT700的“笨笨”的筐体设计,不如NS8000细致。估计以后的公开赛,该有高手们拿NS8000“骚”了。
NS8000,看来是为老前辈的董炯,叶成万,新锐的李宗伟,鲍春来,陈金设计的,如果哪次OPEN看见林丹,谢MM那拿着发烧,也很正常了。。。。
推荐理由:如果你在NS8000,MP99间徘徊,我建议你就上NS8000吧,MP99的操控性不入NS8000好,我的认识是:NS8000,有CAB20的均衡手感,TI10的猛烈火力,AT800的双打平抽挡的快捷,实在是难说啥坏话了。
来自:http://mycheer.w101.ws86.com/www/2/2008-07/66.html
目前的羽拍,最常见的拍框是中平头的。大平头和小平头都相对少见,圆头则更少。为了获得同等的拉线磅数体验,需要注意拍框形状不同所带来的差异。比如你一直打大平头的球拍,象大傻D11、yy钛十之类的框型,用25/27磅,需要更换成yyAT700,这是一支中平头的球拍,那就需注意减一磅,大约24/26就可以了,这样可以获得跟大平头拍的相同磅数体验;要是用小平头球拍,如大傻001,你还需要再减1-2磅,22-23/24-25磅,就能获得相同体验,有时候对一些面积相对较少的拍框,比如北极狐Ti25,尽管它是中平头的,但你拿它跟yy700拉同等磅数,可能会觉得Ti25还紧致些,所以也需要酌情减磅;用圆头球拍,如yy20、肯尼士787,大约21-22/23-24磅即可获得相同感觉。大家在购买球拍后选择拉线磅数,就要注意这一点,避免磅数感觉与原来适合的手感差异太大。至于72线孔与76甚至88孔的球拍相比,只要框型一样,个人感觉同等磅数下,线床张力并不会相差太远,大约只是每增加4个线孔,磅数随即增加0.5磅左右的比例,如果72孔转76孔球拍,增加的磅数基本可以忽略不计,但72孔转88孔,同样的羽线拉同等磅数,会觉得88孔磅数要高2磅左右,这是由于拉线交叉重叠点数量的差异造成的。综上所述,拍框面积越大的,磅数要适当越高,反之拍框面积越小,磅数便适当下调;线孔越少磅数要适当越高,线孔越多,磅数便适当下调,同框型的线孔与磅数递增比例大约为4线孔/0.5磅,科学的拉线,用心的比较,才能获得相同的磅数松紧体验。
目前大家比较常用的羽线还是yy,yy线中,抗走磅能力相对好的是65、70,65Ti,这些线都是0.70mm的;抗走磅能力最差的是80、85、6,这些线都在0.68以下;同等磅数下,前三者拉线后会感觉紧一点,后三者会感觉松一点,所以在拉线的时候需要注意,如果从换线是从前三者转换到后三者,那可能需要调高1-2磅,不然会觉得线不够原来的紧。其中,加钛与没加钛的也有分别,加了钛的线,感觉击球感会硬一点,所以yy线中68Ti型号比较特别,它刚开始用的头几个小时感觉不错的,你拉线不能拉太紧,但很快它便会降磅,恢复细线的本来面目。综上所述,没加钛的情况下,一般羽线直径越粗,则磅数可相应低点,而羽线直径越细,磅数就要相对调高一点,变化幅度在2磅左右,这样互相更换使用才能获得接近的线床松紧体验。
根据多年用线心得,感觉羽线尽管品牌繁多,但还是存在区域特点的:台湾和日本出产的羽线,代表品牌为yy、gosen、华腾,耐打性相对比较好,存放时间相对长,但非常容易掉磅,在业余比赛或日常训练中没有太大问题,但专业比赛中一般就得每场比赛换线,以维持相同的磅数完成比赛。欧洲产的羽线,工艺最好,掉磅情况很少出现,但缺点是寿命较短,而且均以出0.64mm左右直径的线为主,但其寿命已经比同等直径甚至更粗一点的台湾、日本线要长了。其代表品牌有德国太平洋、英国亚狮龙、雅帕,中国大傻羽线也在德国制造。美国产的线,在上述两个区域的特点之间,没日本、台湾线耐打,也没有欧洲线的抗掉磅能力,但对于上述两个地域羽线的缺点,美国线却具有优势,代表品牌是雅莎维,又名敖狮威,里面最好的线型号是A85,耐打、弹性好、不掉磅。中国大陆产的羽线,目前还只能生产一些较低档的练习线为主,线径都比较粗,加上包装比较简陋,宣传不到位,高档羽线很少在大陆加工,但也有例外,我比较看好的国产羽线品牌是福建生产的袋鼠(TOFF)牌,它的100线和200线质量都属上乘,尤其是200线,性价比极高,大家有机会可以找来试试。
来自:http://www.gzcheerclub.com/bbs/viewthread.php?tid=3641
当看到专业运动员在比赛中起跳扣杀给对手致命一击,你在大呼痛快之余,是否想过自己也可以象那些运动员一样在比赛中运用起跳扣杀技术?不用急,下面我将以右手持拍为例,就起跳扣杀的先决条件、练习方法、应用意义一一作出阐述,仅供广大球友参考。
首先是先决条件,要掌握好起跳扣杀,必须有良好的膝部起跳爆发力、腰部拧转爆发力以及最重要的身体平衡感;腰、膝爆发力是起跳扣杀的基础,平衡感是起跳扣杀的质量保证。当然,要想练好起跳扣杀,在地面上的扣杀技术也必须比较熟练或者至少具备一定的基础,否则是无法进行起跳扣杀练习的。基本掌握地面扣杀技术的球友,可以通过以下这个方法检测自己是否具备练习起跳扣杀的先决条件:双脚分开约1.5倍肩宽,预设左脚踩着的点为A点,右脚则为B点,半蹲(大小腿夹角不可少于90度),然后充分往上跳起,小腿尽量往后踢,在空中要求有充裕的时间屈膝并转体,身体向左后方转180度后落地,左脚踩在B点,右脚踩在A点,如此连续做5-10次,身体保持平衡不能摇晃。如果你能轻松做到这一点,那先恭喜你可以尝试进行起跳扣杀的训练了。不能做到以上这点的也不用灰心,一般练习一周左右也大部分可以掌握了,需要提醒的是很多人练习这一步时会不自觉的低头看自己的脚,这样反而不容易掌握平衡,正确的是在一个起跳动作中,头面部在起跳前就应该朝向自己的左方,眼睛看着左前方的某个目标,在起跳过程中,面部朝向不转而身体转,落地后头面部朝向不变,但因身体转了180度,就自动变成转向了自己的右方了。
现在谈练习方法,练习起跳扣杀可以分三步走。第一步,原地向正手方起跳击平高球:练习时可按一般隔网拉平高球的方式与同伴对练,请同伴尽量把球压到你的正手后场,你在准备击球时,双脚站位连线与球场底线是大致平行的,在此姿势上,见到正手方来球,即起跳回击平球,或向正手方并一至两步后再借势起跳回击,不需下压球,只回平球即可。在这一步中,要求双脚向正手方起跳,身体不往前,不往后,只是往侧方与底线平行的方向起跳,在空中不用刻意拧髋,仅体会一下身体在空中舒展的感觉,关键是在空中肩关节需充分后展引拍,手臂需以肘带动,快速闪腕击球,而落地一般先右脚落地,左脚迅即随后落地以辅助保持平衡。这一步一般业余爱好者大约1-4周时间可以熟练了。第二步,在第一步的基础上,将起跳时间提前一点,击球点也前移一点,回平高球变成回扣杀球。需要注意的是,第二步的基本要求都是与第一步一致的,只是将发力方向从对场的高处,变成对场的地面,另外击球的瞬间需运用收腹的动作辅助发力,请切记这一点。练习时间与第一步相同。通过前两步的练习,如果你已经因此而具备了一定的空中焦点捕捉能力,以及空中协调发力的能力,那么恭喜,你可以进入第三步了。第三步,站在底线稍前位置,两脚站位改为左脚前、右脚后,两脚连线与球场边线平行,脚尖和身体正面朝向边线一侧,面部左转朝向球网;同伴发高球给你。面对来球,注意用小碎步或并步调整击球位置,务求将击球点抢在前面,起跳大力扣杀的理想击球点应该在你的身前,不要让它飞到你的身后,这跟在地面上杀球的道理是一样的。在合适的时机下,双脚分开大约1.5倍肩宽,半蹲,随即充分起跳,起跳后髋部马上向左拧,使腹部转向前方,与此同时右手持拍上举并且右肩后展,当腹部朝向前方的时候,通过拧髋的牵带力量,右肩、右肘、手腕等依次传递力量,在瞬间内让手臂、球拍一体象鞭子那样爆发力量下压。在杀球的时候,胸部应该是对着对面场地的。击球完成后,身体在空中顺势左转,左脚前掌内侧先着地,右脚随即着地保持平衡。需要强调的是,如果起跳后没有拧髋和展肩都做出来的话,是很难作出有力的扣杀的,而拧髋动作不充分的话,球将比较容易出界。在练习第三步的时候,从易到难,可以先采取落点靠前、弧度较平的球给练习者,进而发展到落点靠底线、弧度近高远球的来球给练习者。
最后,谈谈起跳扣杀的应用意义。作为现代羽毛球向速度、力量方向发展而催生的一种进攻技术,它在专业比赛中应用越来越广泛。在专业比赛中起跳扣杀的目的主要是为了加快击球节奏以及掌握尖锐的进攻落点;但它同时也是一把双刃剑,有着不可避免的缺点,那就是非常消耗体力以及容易导致受伤。羽毛球比赛中的下肢受伤,超过半数都是起跳的瞬间或落地的瞬间造成的,特别是在疲劳的时候发生,所以必须注意合理地使用起跳扣杀,业余球员很少系统作专项训练,更需要注意这点;当觉得脚下力量不足时,其实尝试将重心放到右脚,作单脚起跳,会比勉强的双脚起跳效果好。起跳扣杀还有一个滞空时间控制的问题,一般来说,除非为了耍帅,最好尽量缩短滞空时间,不然很容易影响下一拍的击球,而滞空时间是通过在空中伸展小腿来控制的,最好养成击球后小腿马上伸展争取触地的习惯。也许这将影响你的帅气,但你这么做了的话在技术上实际是好很多的,当偶像派还是实力派就各取所需吧。实际上,上面谈到的起跳扣杀技术,还是远远不够的,比如并没有谈到头顶方的起跳扣杀,也没有谈到起跳后扣杀与劈吊、平高的手法变换结合,这些都是相对较难掌握得好的;不说,是因为没有说的必要。起跳扣杀是一项相对比较难入门的技术,但入门之后,一但通了窍,也不过象《卖油翁》里面说的那样“惟手熟尔”,所以,关键乃是入门。
我自己学习起跳扣杀,从完全不懂到基本象模象样,大约花了两个星期的时间,一个星期打三次球,没有专门的去练,只是在平时多去模仿加上脑子里琢磨,就可以了,多在空闲时脑子里想一想,在练习时印证,是一定有帮助的。我掌握起跳扣杀以后,也只在双打时用得频繁些,单打则基本不用,就算在没有受伤的时候,也很少用,现在更是根本不用了,但以往掌握起跳进攻的一些经验,在对付喜欢起跳扣杀的对手时,还是有一定帮助的,虽然你不用它,但你了解它,就可以通过它的双刃剑来惩罚它的使用者,或被使用者惩罚你,此为羽毛球一乐也。
最后的总结是,起跳扣杀你没有必要一定用它,但可以去尝试了解或掌握它,如果你的志向是当一名业余一流高手的话;但需注意它是一把双刃剑,练习和使用的时候要加倍小心和量力而为。
来自:http://www.gzcheerclub.com/bbs/viewthread.php?tid=3745
从oracle官方下载的最新版本 11g装到visa上,老是报错;
解决方法:关掉OracleDBConsoleorcl服务就可以了,而且不会影响oracle的使用
来自: http://3000books.net/index.php?option=com_content&view=article&id=823:解决nmefwmi.exe导致的问题&catid=48:张万程生活随笔&Itemid=89
先到RealPlayer官方网站上下载:
http://www.real.com/linux/
将文件RealPlayer10GOLD.bin保存到主文件夹中,即/home/[yourusername]文件夹下。
然后打开终端,进行如下操作:
$chmod +x RealPlayer10GOLD.bin
$sudo ./RealPlayer10GOLD.bin
当终端显示
Welcome to the RealPlayer (10.0.8.805) Setup for UNIX
Setup will help you get RealPlayer running on your computer.
Press [Enter] to continue...
时按下回车键,进入下一步:
Enter the complete path to the directory where you want
RealPlayer to be installed. You must specify the full
pathname of the directory and have write privileges to
the chosen directory.
Directory: [/home/shixinyu/RealPlayer]:
这里默认安装到用户的主文件夹下的RealPlayer目录下,如果你想要安装到别处,就在此处输入路径,否则直接回车即可。
You have selected the following RealPlayer configuration:
Destination: /home/shixinyu/RealPlayer
Enter [F]inish to begin copying files, or [P]revious to go
back to the previous prompts: [F]: F
安装程序会提示最后确定信息,如果都确定了,按下F键后回车。
当提示
Copying RealPlayer files...configure system-wide symbolic links? [Y/n]:
时按下Y键回车即可,后面基本上就没有需要用户操作的地方了,通常到这里基本上就安装好了,你可以到“应用程序,影音”下找到RealPlayer10来运行了,首次运行会有一段安装协议需要同意。
注:如果在跟着上述步骤完成安装操作之后到应用程序菜单下的“影音”中单击RealPlayer无反应,并且你的Ubuntu安装的是SCIM输入法,那么很可能是SCIM与RealPlayer的冲突,你还需要进行下面操作:
$sudo gedit /home/[yourid]/RealPlayer/realplay [yourid]指你的主文件夹名
在打开的文本编辑器的首行添加下面一行
export GTK_IM_MODULE=xim
之后保存文本编辑器,然后再次执行RealPlayer应该就正常了。
如果你是新手,
sudo gedit /etc/apt/sources.list
添加源
deb http://archive.canonical.com/ubuntu dapper-commercial main
保存退出
sudo atp-get update
sudo apt-get install realplay
就可以安装成功了。
来自:http://hi.baidu.com/longrj21/blog/item/698030dbc70ad163d1164e2c.html
七大简易盈利法则
立桩量的实战运用:
一、立桩量的产生条件
立桩量是指在一只股票在上升途中,在相对低位放出一根阶段性的大量(超越和覆盖掉前期的量),量的大小呈现阶段性放大趋势,同时,股票价格处于上涨的趋势,以上两点缺一不可。尤其强调的是立桩量只出现在股票的上涨途中,而在下跌中是不可能有立桩量出现的。
二、三天法则
立桩量要成立,必须建立在"三天法则"之上。即在三天之内不跌破立桩量当日股价的最低点(b点),且股价后期要突破立桩量出现时股票价格的最高点(a点)。另外,"三天法则"中的"三天"并不要求时间段一定为3天,只要在出现立桩量后三天左右不跌破低点b,且股价超过a点,就可以买入,例如,立桩量出现后股价第二天就创新高突破a点就是买入的时机。
三、目标位涨幅的计算
只要立桩量被确认,未来股价将会到达的位置是:a点价格2。这种翻番的效应,实战案例已是举不胜举。
四、操作要点
1、量无阴阳,只有大小。当后量超越前量,且此后股价突破放巨量日的股价最高价,则立桩量方成立。反之,不能突破高点且低点被击穿,则立桩量不成立。即使放再大的量,也应放弃不可介入。
2、在立桩量法则成立之后,应该半仓介入。因为股价在冲高途中会出现一定的震荡格局,而震荡后的拉升才是全仓的时机,一直到最后达到100%的涨幅。
3、立桩量出现后,股价在连续上涨中会出现回落调整阶段。这一调整过程一般为6至13天。如能把握好,一是可以避免调整期的"折磨",二来可掌握加仓的时机。
五、寻找立桩量的窍门
沪深股市千余只股票,要能即时寻找到出现立桩量的股票,除了每天复盘查看每只股票的盘中走势外,有一个最简便的方法是开盘后观察"81""83"中的"今日总金额排名"一栏,寻找金额异动的个股。看那只股排在第一,尤其是超越大盘蓝筹股量的个股,一定要关注它。若排在前面,其走势又在其对低位,且后量超过和覆盖了前期的大量,此量可能就是立桩量。然后再根据三天法则观察,只要股价突破放巨量当天股价的高点,则立桩量成立,便可果断介入,此后必获翻番大利。 "螺旋桨"--下跌中捉"黑马"的"航标"
绵绵下跌中,信心殆尽,机会何在?迷途中,他慧眼发现了走出苍茫"绿海"的航标--螺旋桨法则。它助你在熊途末路中骑上"黑马"走出低谷,奔向制胜的彼岸。 螺旋居侧听潮升 金秋时节,简凡传授操盘绝技的公开免费报告会在上海各大影剧院连续举行。他的弟子吴华为他在媒体上写下了这样一句"广告语":立桩峰顶赏秋月,螺旋居侧听潮升"。显然,立桩量和螺旋桨在他的操作技艺中占据着重要位置。
螺旋桨法则,它是简凡继立桩量之后又一个炒股绝招和重要的法则,也是一把在熊途中稳获大利的"杀手锏"。
他说:"在一些股票经过长期下跌,在其跌势的末端,有时你会惊奇地发现有一种'螺旋桨形态'出现,它是一个带着非常长的下影线的K线,也是通常所说的'单针探底'。这种形态,可是一个在跌势中难得的获大利的宝贝。只要它一出现,此后就有机会获得30-45%的利润。"
一、螺旋桨法则的判断条件
1、它出现在下跌的行情,且累计下跌幅度比较大,一般在中、晚期。
2、缩量,不满足135日均量线。
二、形态
从左图可以看出,螺旋桨的基本形态是具有一根非常长的下影线的一种K线。但也有一种个别形态:股价跳空低开(甚至以跌停开盘)后再大幅拉起(甚至于从跌停拉至接近涨停或涨停),此为K线形态为"螺旋桨法则"中的一种"变形形态"。对此法则的操作同等有效。需要说明的一点是:这里的K线对阴阳无要求。
三、三天法则
1、先确定出"二分位",找出中轴线(即最高价与最低价的中点--中间价)。螺旋桨重心在中轴线之上运行,则向上旋,在中轴线之下运行,则向下旋;
2、连续三天股价均在二分位之上,则后市股价上涨;
3、三天后当股价突破螺旋桨的最高价,同时放量满足135日均线,则涨势确立。
注:若股价在三天内跌至二分位以下补掉了螺旋桨的下影线,则可判定此K线并非螺旋桨。
四、目标价位
设螺旋桨出现时当日最高价为A,最低价为B,未来目标价位为N,其未来股票的价格可用下列公式计算:
N= (A- B)4.5+B
即:(最高价-最低价)4.5+最低价=目标位
注:公式中的4.5为固定涨幅系数。
五、操作要点
1、螺旋桨的出现是在下跌中。下跌的幅度一定要大,且在股票下跌的中晚期。跌幅越大,其报复性的反弹力度就越大,操作的成功概率也会越高。
2、螺旋桨出现时,能量一定要萎缩,其缩量的标准是不满足于135日均量线。
3、与股票拉升中出现立桩量时半仓介入的原则不同的是,一旦螺旋桨法则确定生效,则应重仓或全仓杀入。因在熊途中多以空仓相待,而螺旋桨出现的报复性行情暴发力强,时间短,稍纵即逝,只有重仓,才能获得丰厚利润。
4、遵循"三天法则"要灵活,若不到三天股价就突破高点,要立即果断介入,不可贻误战机。
5、通常,在螺旋桨法则中,未来股票的涨幅都在30%-45%之间。因而,若涨幅不到30%,坚决不出。
实例一:南京医药
这是简凡2005年走出"机构操作密室"踏入证券咨询业后的"开山之作",也是他实战中运用螺旋桨法则操作的最为经典的案例之一。
时间:2005年5月11日。
从图中可以看出,南京医药从2004年4月7日的7.33元经过长达一年多的下跌,于2005年5月11日在低位出现了一个螺旋桨形态,当日最高价为3.41元,最低价探至3.14元。
根据螺旋桨法则,由此可计算出它的中轴线为(3.41-3.14)2+3.14=3.27元。当天收盘价为3.36元,站在了二分位之上。只要后面股价突破螺旋桨出现时的最高价3.41元,成交量满足135日均量线,股价就会螺旋式地向上翻。实际运行:5月17日突破高点,同时成交量满足135日均量线,螺旋桨成立,介入!
按照目标位=(最高价-最低价)4.5+最低价公式计算:
未来目标位= (3.41-3.14)4.5+ 3.14元 = 4.36元。
实施螺旋上翻的具体运行过程是:
第一次上翻:3.41元+0.27=3.68元(2005年5月17日完成,当日最高价为3.69元)
第二次上翻:3.68元+0.27元=3.95元(于次日完成,当日最高价恰好为3.95元)
第三次上翻:因按常规在螺旋上翻3.5倍时会有震荡,因此,第次上翻的目标位=3.95元+0.13元=4.08元(5月26日完成。当日最高价为4.08元)
第四次上翻:4.08元+0.27元=4.35元(2005年6月8日完成了最后一翻,当日股价最高达4.37元,与螺旋桨法则计算结果仅相差1分钱)。
茫茫股海,陷阱重重。艰难跋涉,何能趋利避害?他用四条神奇独特的趋势线辨牛熊,识陷阱,成功狙击主力,从庄家的口袋里夺取财富。
"魔鬼线"321-股票买卖点的最后判断
在采访简凡期间,记者发现他平时看盘从来不看人们通常所设的5日、10日、30日移动平均线,而只注重K线的走势和135日均量线是否满足。但在关键时刻或点位,他一定要看他从华尔街导师那传承过来的四条特殊的趋势线,那就是13、26、156和321。
简凡介绍说:"13日和26日均价趋势线为短期盈利线,156日均价趋势线为多空止损线,321日均价趋势线为牛熊分界线。在这四条趋势线中,我最看重的是321这条趋势线,特别是对于集中资金买卖一只股票来说,321日趋势线非常具有实战性,它是买卖股票的最后判断。我戏称它为'魔鬼线',如果它压制在股票运行的上方,常常是股价一碰到这条'魔鬼线'就会下跌,而如果它处在股票运行轨迹的下方,它便是一道坚固的防线,许多股票下跌到此,常会被这条防线托起,然后再步升途。而在下跌中,一旦这条防线被有效向下击穿,那将是最后的逃命机会。"
1、321日线对指数的判断
在指数累计上涨的幅度达到50%以上,指数在高位进行震荡之后,指数只要由上向下击穿321日线,即为有效突破,预示指数进入下跌态势,进入熊市,此时应全部沽空。特别是当156日线与321日线发生死叉,股市即全线进入持续跌势,此时无论如何都应全线沽空,决不可听信市场上的任何传言,也不可"高速后马上会反弹"抱任何幻想。
当四根趋势线成空头排列形态,且321日线在最上面,此时321日线即成为反弹的目标位和强大的阻力位。
实例:上证指数
2001年6月14日,上证指数在创出2245点的高点后,开始下跌。自7月23日,大盘进入加速下跌,连续出现 6连阴,7月30日以一根大阴棒击穿321趋势线,破2000点大关,表明上一段的牛市已经走完,市场已进入做空状态,应果断抛空手中所有股票,这是最后的逃命机会,此后大盘步入了长达4年多的漫漫熊途。
2、321日线对个股的判断
对个股由牛势转为熊势的判断与对指数牛势转为熊势的判断一样,只有一点区别:股价在高位震荡后,股价由上向下击穿321日线,并连续三天股价重心都在321日趋势线下运行,才为有效突破,这是股票抛售的最后时机。而大盘指数突破一天即为有效。
3、由熊势转为牛势的判断
对个股和指数由熊势转为牛势的判断标准是一样的。当股价或指数在从321日趋势线下方向上突破,并且股价重心连续三天在321日趋势线以上运行,此时股价经上涨后会回踩321日线但不跌破321日线,可以认定为有效突破。此时,股价上涨趋势开始,进入牛势行情。当股价创新高(大于前三天股价的最高点)为股票买入点,此时成交量要满足135日均线。
321日线被称谓牛熊分界线,在判断大盘的走势上,32日线有着非常准确预见。在2003年12月22日大盘一举突破321日线,连续三天指数运行在321日线上,成交量也满足135日线上,故为有效突破,大盘在后期一直运行到1783.01点。
2006年1月6日,大盘在一举突破321日线,并且连续三天指数运行在321日线上,成交量也满足135日线上,故为有效突破,当天突破时大盘收于1209.42点,之后一波凌厉的上涨行情展开。
再拿个股来说,例子就更多。运用321日趋势线可有效抓住个股的最佳买入点,获得极为丰厚的利润。就以宝钛股份为例证,在经过漫长的横盘之后,该股于2005年6月20日第一次突破321日线,可在第二天以一根阴线有跌破321日线,故为无效突破。此后虽接连几次实施突破,但都因整体运行在321日线下或回踩跌破321日线,故也为无效突破。直到2005年7月5日股价再次突破321日线,并在接下来的三天股价重心运行在321日线之上,且这几天成交量都在135日线以上,为有效突破。2005年7月8日,股价回调后于7月11日突破前三天最高价9.30元时为买入点,可以看到宝钛股份在后期有巨大的涨幅,最高价达到59.86元。 识骗局,从"死叉"中夺金子
在简凡设定的四条趋势线中,还有一条极其重要的156日线,它是一条多空止损线。指数或股价一旦击穿156日线,将会直接进入下跌行情,此时应及时止损沽空。
但是,他说:"一般投资者见到空头排列就逃,这是一种常见的思维。但是主力有时往往会超常规'出牌',在出现'死叉'后会设下诱多的骗局,引诱投资者吃套。但要能识破它,并把握好时机,反倒可以从主力口袋里掏出金子。表现在156线死叉后产生反弹的反技术操作即如此。"
他指着盘面给记者看:"在下跌过程中,13、26日线或321日线与156发生死叉后,总会有一段奇怪的反弹行情。这一反弹通常会发生死叉的三天后,回涨幅度一般有30%左右。这是下跌中难得的一块'肥肉'。但这种反弹只是空头回补,是主力在为出逃诱多。反弹结束之后会有一段更为猛烈的杀跌。"
"骑上狂飙黑马,如何不被盘中的"阴棒"所吓倒,不让奋蹄的黑马颠落马下?简氏高低法则似一把"神尺",既解决了"持股难"的一大问题,又可让你的盈利达到最大化。
在"暴风骤雨"中持股
1、坐涨不坐跌
证券市场股价波动的基本状态只分为上涨和下跌。按照道氏理论中所阐述的趋势运动揭示的规律,股票的上涨分为主要运动和次级运动。其主要运动是指市场最基本的上涨趋势,次级运动是指市场在反弹中产生的上涨行情。对于投资者来讲,最能够产生获利的波段主要是在上涨趋势中,而不是在横盘和下跌趋势当中。但有相当数量的投资者不能正确认识这一点。我通过多年的实战总结出了一个简单而实用性很强的规律:"坐涨不坐跌"。即我们在上涨的趋势中操作股票,而不是在下跌的过程中去抢反弹。但要遵守这样一条操作法则,必须拥有指导性的读盘方法,从而解开主力的操作密码。
2. 简氏线
A . 通常股价上涨或下跌的波动情况是用K线来表示的,而常规的K线它有开盘价,收盘价,最高价,最低价之分。投资者经常注重于股价的收盘价及开盘价,而往往忽略最高价和最低价的作用。而我认为股票价格的上涨是以不断创前期新高来代表,价格的下跌是以不断前期新低为代表。那么,在证券买卖中日K线代表的是该股每天价格波动的变化情况,月K线代表的是该股价格变化的总体趋势。对于投资者来说,只有在月K线趋势的指导下进行操作,才能读懂该股价格变化的整体导向。为了简单而明了地表达股价波动的情况,我只保留K线四种价格中的最高价和最低价。因为股价上涨的最终代表是指突破前一天的最高点,股价下跌的最终代表是指击穿前一天的最低点,除此之外没有其他的表达方式。在证券市场的买卖中,我们的操作方法应该是简单的、明了的,而不应是繁琐的。不论K线是收阴或是收阳,或有上影线和下影线,其最高价与最低价都是最重要的,而开盘价和收盘价则随时会受到当天股价的波动而有所变化。我们首先来看以下两幅图:
图一和图二是我们常见的一般形式的K线图,它包括了开盘价、收盘价、最高价、最低价四种价格。
而我们再来看一下简氏线的K线图:从下图可以看到,简氏理论中的K线不论是阳线或阴线,仅仅保留了最高价和最低价。这是我们之后阐述简氏高低法则最基本的前提之一。
B . 既然谈到股价的最高和最低,势必要找到股价变化的参照体。有很多投资者在日常操作中都习惯把几天以前甚至于几个月以前一个相对的高点认为是股价的最高点进行比对。而我认为股价在日常波动中最高价和最低价的比对参照体就是该股前一天的最高价和最低价。
如下图所示:
从图中我们可以看出,一般投资者认为b点不是一个很好的买入点,因为股价并没有超过前期高点(图中a点),不能有充分的信心认为反弹开始。但从简氏线角度看,股价从b点的前一根阳线开始就已经止跌,并且放量创出新高,次日继续放量创新高(b点),出现强烈的反弹信号!当天就是买入的最佳时机。在接下来的几个交易日中上涨趋势完全成立,所以我们认为,b点便是资金介入的最佳时机!
3.简氏高低法则精要
⑴ 股价在急速上涨过程中(涨幅一般 在75%左右),不论成交量大小与否,也不论当日(或当月)收阳线还是收阴线,只要股价不断创出前一天(或前一个月)的新高,即突破前一天(月)的最高点,就坚决持股,不断扩大盈利。
例如苏宁电器自2005年11月至2006年6月股价连创新高,若一直持股,将获得300%的丰厚利润。
再如贵糖股份 ,在上涨中虽然于2006年2月其K线出现了一根阴线,但因股价仍创出新高,继续持有,之后该股又有一段大的涨幅。
⑵ 股价在急速下跌过程中,伴随着成交量的萎缩,只要击穿前一天(或前一月)的最低价,不论收阳或收阴,都应快速抛出手中股票,减少下跌被套的损失。
例如昌河股份 在2006年10月13日股价缩量创出新低,此时应即时获利了结,此后该股便开始下跌。
4.操作要点:
⑴ 不看K线阴阳,也不看开盘价和收盘价,只关注其最高价和最低价,这是应用简氏高低法则买卖股票的第一条。
⑵ 在高低法则的定义中,有一个特例:股价在急速下跌后或在下跌的末期,突然放出巨量击穿前一天的最低价,此为放量下跌的现象,应判断为震荡,只要在后三天中不再击穿放出巨量当天的最低价,并突破该巨量的最高价时,则为下跌趋势即将转入上涨趋势的信号。
例如洪都航空 在下跌的末期,于2006年1月23日K线图中放量砸出了一根大阴棒,然而,此后三天股价不仅未再创新低,而且连续创出新高,此是由跌势转为涨势的信号。
⑶ 若股价在完成75%的涨幅后,不论放量还是缩量,都无法突破前一天的最高价时,即为上涨趋势改变,转入震荡下跌趋势的信号。
⑷ 在上涨趋势中,特别是在上涨的初期阶段,有两种形态需特别注意:一是股价未能创出新高(尤其是在月K线中),但成交量却呈不断放大状态,则仍应持股。 二是若成交量萎缩,但股价未创出新低,这种缩量未创新低应视为属于正常的盘整,继续上涨的趋势并没有改变,可以继续持股。
⑸ 股价在上涨趋势中,量为君,价为臣,成交量一定要持续满足135日均量线的要求,才为真正的上涨。
⑹ 简氏高低法则在实战中运用时,只对日K线和反映长期趋势的月K线研究,而对周K线是不做研究的。我个人认为在高低法则中,周K线没有研究的意义。"
股海风云变化莫测,让人难以预知未来走向,使不计其数的股民遭受风雨摧残,并最终倒在股市这条铺满荆棘与泪水的道路上。然而,简凡却在这扑朔迷离的股市中发现了一种能够预测未来股价发展趋势的形态--"喇叭口",它就象能指引方向的"司南"(指南针),让在茫茫黑夜中摸索的人们明了未来的发展趋势。
一、"喇叭口"形态
简凡说,当股价或指数运行到相对低位或相对高位时,特别是除权后,经常会出现一种形似"喇叭"的一种形态(如下图所示),他称之为"喇叭口"形态。而又因其喇叭口形成后上涨和下跌的幅度相当之大,他又把此种形态形象地称为"狮吼功"。
喇叭口的形态如下图所示:
a点为喇叭口前高点,b点为前低点,c点为后高点,d点为喇叭口的后低点。
喇叭口是行情转变的一种过渡形态。它是股价和指数高点的不断上移及低点的不断下移,形成的一种上下扩散的形态。在其扩散过程之中,成交量的配合也尤其重要,它是一个由放量到缩量再到放量的过程 。当喇叭口在相对低位形态形成后,伴随着成交量不断放大 ,并满足135日均量,则后市看涨;反之,如果喇叭口在相对高位形成后,伴随着成交量逐步萎缩,成交量不满足135日均量线,则后市一般会有较大的下跌行情。
二、喇叭口形成后的后市走向
喇叭口根据其各个高低点位置的不同、形成时间的长短、扩散程度的大小从而形成不同的箱体,该箱体运行的最终位置可以通过其高点、低点的位置和箱体系数进行计算。由于股价走势受系统因素和非系统因素的影响,所以通常用喇叭口箱体计算的股价和指数的最终目标位与现实中的最终股价、指数会有一些偏差,但都不是很大。
1.上涨幅度计算公式:喇叭口在相对低位形成,后期伴随着成交量的逐步放大,后市处于上涨趋势,此时喇叭口运行的最终目标位的计算公式如下:
(后高点-前高点)4+后高点=最终目标位
注:4是此类箱体固定系数
古希腊哲学家阿基米德说过:"给我一个支点,我可以撬动整个地球"。这句话给人类的生活带来巨大的启示。简凡沿用了前人的言论,提出"给我一个支点,我可以撬动整个大盘",下倾三角箱体的"4·10"定律是简氏箱体理论的典型代表。它是一种可以准确预测大盘中长期的运行趋势点位的一种简易方法。
一,"4·10"定律的成立的条件
当大盘指数在运行中出现"W"底和下倾三角箱体的形态时,如果后高点进行回调时的点位不破前期低点。其运行结束后必然会产生一波上涨行情。
二,"4·10"定律的目标位置计算公式
这里我们假设前高点为a,后高点为b。则按照"4·10"定律运算公式:
M(股票运行的第一目标价位)=a+(a-b)4
N (股票运行的第二目标价位) = M(第一目标位)+(a-b)10
案例1:上证指数2245点的预测
如上图所示,1558点为前高点,1510点为后高点,在1510点冲高回落后没有破前期低点,因此"4·10"定律成立。而前高点和后高点两者之差为48点,则大盘运行的第一目标位为1750点,计算方法如下:
M(股票运行的第一目标价位)=a+(a-b)4
=1558+(1558-1510)4
=1750点
实际大盘运行结果上涨到1756点,仅与预测点位相差6点!!! 同时,该预测子也打破了以前的市场定论:"涨不言顶,跌不言底"。
按照"4·10"定律,大盘运行的第二目标位:
N = M(第一目标位)+(a-b)10
4810=480点(幅度值)
1756+480=2236点(后高点)
实际上大盘涨至2245点,离"4·10"定律的预测仅相差9点。
由于"4·10"定律一旦完成将产生大级别的回调行情,因此在2236点应该是抛出股票,而不是存钱做买卖行为。而在现实中,当大盘指数达到2236到2245点一线的时候,一片看涨的声音甚嚣,2800点论,3000点论,甚至5000点论充满了整个证券市场,机构代言人纷纷发表言论表示对后市的美好憧憬,对于很多中小投资者来说,在2236点时本应该离开市场,但许多投资者在市场趋势发生逆转的时候却都杀进了这个充满危机和风险的市场!
因此,在这个充满风险的投机市场中,只有掌握了正确的投资方法才能获得利润的回报,而"4·10"定律为投资者提供了一种研判大势的方法。
案例2:上证指数1757点和未来趋势的预测
如上图所示,1328为前高点(2005年2月25日),1223点为后高点(2005年9月20日),在1223点冲高回落后没有突破前期底点(1004.08点),"4·10"定律成立。前高点和后高点之差为105点,则大盘运行的第一目标位为1748点,计算过程如下:
1328 + 105 4 = 1748点
实际大盘运行至1757点(2006年7月5日),相差9点。
按照"4·10"定律,未来行情的第二目标位为2807点。计算过程如下:
1757 + 105 10 = 2807点
"4·10"定律成立后,说明未来大盘还有一个大幅的上涨空间。2807点的目标位尚未到达,目前正在运行过程中。
月线"年轮"--揭开股价未来走势周期的"天机"
天行有常,世间万物变化有律。股票犹如人的生命一样,是处在二三十岁的青壮年期,还是处在七八十岁的古稀、耄耋之年?他用月线的"年轮",揭开股票未来涨跌周期的"天机"。
采访中,记者发现简凡在看股票走势时,很注重察看月K线图。他说,月线最能充分反映股票涨跌的中长趋势。据长期的实战经验,一只股票在上升途中,一般会在低位突破后形成八大高点。八大高点是指月K线中的一种组合。据此我们可以判断目前股价处于上涨周期的哪个阶段,以决定我们的投资策略。
在月K线上,股价往往在底部横盘整理,形成一个平台,我们把这个平台中出现的最高价位称为平台颈线。当此后某个月的月K线的最高价突破平台颈线,则称这个月的最高价为第一个高点。当此后某个月的最高价突破第一个高点,则称这个月的最高价为第二个高点,依此类推。一般来说,股价的一次完整上涨周期中会出现六到八个高点。八大高点的形成来源于简氏理论中所指出的主力行为模式。显然,第一高点形成前的平台属于主力的建仓;第一、第二个高点往往是主力的洗盘增仓造成的。按照我们提倡的"掐头去尾"原则,做股票要避开主力的建仓期,主攻突破增仓期和拉升期。所以,八大高点指出的最佳买入点是在第三、第四个高点。由于八大高点衍生自主力的行为模式,单独使用则失之偏颇。但因为它简洁明了,能很容易地判断出股价处于一个上涨周期的哪个阶段,可作为制定投资策略时的一个重要参考。所谓"运用之妙,存乎一心",读者朋友需细细体会。
需特别说明的一种情况是,因除权而导致股价有大幅回落,则除权前的月线不再有参考价值,要看除权后的月线形态。若除权后股价低位盘整,形成了底部平台,则仍按照前述的方法,确定第一个高点的位置。如果没有形成平台,除权后的月线不断创出新高,则以除权后第一个月的最高价为第一个高点。我们知道,常见的证券分析方法有两种,即基本分析和技术分析。简凡认为,由于中国目前的股市仍然是一个资金市,中国的上市公司总体质量差等因素,基本分析在中国的股市其实是不适用的。那么为什么基本分析仍然在中国证券市场很流行呢?答案是机构,或者说主力的需要。深受做庄之害的散户简单地认为,进行价值投资的机构是的,而进行炒作的机构是坏的。因此,机构在媒体中孜孜不倦地发布上市公司基本面分析文章,只不过是在为自己炒作股票寻找辩护。另外,对基本面进行分析,也是误导散户、吸引散户跟进的方法。至于层出不穷的所谓题材,更是暴露了目前的证券市场是资金市的本质。在这个大前提之下,结合机构的常见手法,简凡提出了正确的股票买卖法则:
首先进行基本面分析。进行基本面分析的理由不是要寻找上市公司的内在价值,而是要确定这只股票有没有吸引主力资金介入的理由,如果有,那么已经吸引了什么样的主力介入。在选股中,简凡对上市公司基本面的分析包括以下几点:
1. 确认股票的盘面有多大。一般来说,盘面越小的股票越容易被炒作,也就越容易吸引主力资金的介入。而主力资金的介入也就意味着股价的上涨。
2. 确定股票的每股收益是多少,有没有亏损。一般来说,只要不亏损,主力资金就敢于杀入进行炒作。
3. 行业特征和行业地位。这一点是为了找出该股是不是热点、有没有炒作的题材。
4. 股东研究。这一点是为了确定该上市公司目前最大的一些流通股股东是谁。是QFII还是开放式基金,或者只是个人(私募)。不同的主力有不同的炒作手法,这也在很大度上决定了我们买卖股票的策略。在目前的股市中,有三大知名的主力是值得大家关注的,即,易方达、华宝信托和安德盛小盘精选。这三家主力手法是非常凶悍的,涨势凶猛的苏宁电器、小商品城、洪都航空等股票就是这三家主力的杰作。
其次进行技术分析。简凡强调投资者需注意以下几点:
1. 关注月K线。月线体现的是股价变化的趋势。对月K线的分析主要应用简氏线高低法则。另外,如果在月成交量上出现阶段性大量,覆盖前期所有的月成交量,则意味着有新的主力介入。
2. 日K线。日线代表的是股价每日波动情况。对日K线进行分析要结合五条趋势线和简氏线高低法则。以确定股价运行在哪个阶段和具体的买卖价位。
3. "掐头去尾"原则。按照简氏趋势理论,买卖股票应避开主力的建仓期,主攻突破增仓期和拉升期。
4. "高买低抛"原则。即股价在相对低位运行时,当其在成交量的配合下,创出前期新高即可买入。通过一段时间的上涨之后,股价已运行至一个相对的高位,产生震荡击穿前期低点,就可以抛出该股,稳稳获取其上涨的利润。
5. "坐涨不坐跌"原则。当成交量放大,并开始满足135日均量线时,即表示市场的资金开始活跃而且源源不断地投入到市场中,营造出浓烈的做多氛围,此时应果断杀入。当成交量萎缩,开始不满足135日均量线甚者远远低于135日均量线时,则表明市场资金去做多热情并撤离,显示此时为空头市场,此时应离场观望。
在简凡诸多的实战技艺中,有一个专门用来狙击市场主力的"新十六字方针",那是他多年来在机构操盘的切身感受和总结的宝贵经验,也是给那些每天只盯着股价涨跌,而忽略了市场资金流变化这一核心的投资者的一剂良药。
简凡说,证券市场是一个没有硝烟的战场,一般投资者只有充分了解市场主力运作资金的手法,才能真正做到"知己知彼,百战不殆"!为了能让投资者更直接地把握住市场变化的趋势,把握住投资时机,我用"新十六字方针"--"敌进我进,敌退我退,敌驻我止,敌疲我动",高度概括如何紧跟市场主力及市场资金的节奏。"敌"是指市场大资金,即所有能够调动市场趋势的大主力;"我"指一般投资者即中小投资者。
"敌进我进",是指市场主力资金开始运动的迹象--市场成交量开始满足并不断超越135日均量线,即表示市场的主力资金开始活跃且源源不断地投入到当前市场,营造出浓烈的做多氛围。一般投资者应该紧跟市场节奏,大胆买入股票,在上涨趋势中把握机会。
"敌退我退",是指市场主力资金开始撤退的迹象--市场成交量开始不满足135日均量线甚至远低于135日均量线,即表明市场资金失去做多热情并逐步完成诱多出货。此时为空头市场的开始信号,一般投资者则应迅速将手上的股票进行沽空,甚至止损,以保存资金实力。
"敌驻我止",是指市场主力资金入驻到某一支股票后,往往不会立即大幅拉升股价,甚至会向下打压。在这种情况下,跟随主力资金买入股票的中小投资者,应该持股待涨,而不必过于在乎该股每天的日常波动。这就是在把握趋势的情况下,稳定地获取上涨过程中产生的利润。
"敌疲我动",是指当股价经过一段较大幅度的上涨后,股价上涨乏力,这是主力资金疲软的信号,当投资者察觉到这种信号时就应该及时出局。因为股价的上涨是由主力资金推动的,股价涨不上去,说明主力资金已经跟不上了。投资者就应该比机构主力先行一步,提早撤离。
看盘秘诀十八条!!
1、对大盘,大盘股(白线)上得比小盘股(黄线)快,要出现回调,而黄线上涨比白线快,则会带动白线上。
2、涨跌比率大于1而大盘跌,表明空方势强,反之多方强。此状况高位看跌低位看涨。
3、成交量大的股票开始走软,或者前期股市的热门板块走软,当小心行情已接近尾声。
4、股票基本走软,市场在热点消失还没有出现新市场热点的时候,不要轻易去买股票。
5、成交量屡创天量,而股价涨幅不大,应随时考虑派发,反之成交量极度萎缩不要轻易抛出股票。
6、大盘5分种成交明细若出现价量配合理想当看好后市,反之要小心。
7、成交量若上午太小,则下午反弹的机会多,如上午太大,则下午下跌概率大。
8、操作时间最好在下午,因为下午操作有上午的盘子作依托,运用60分种K线分析,可靠性好。
9、上涨的股票若压盘出奇的大,但最终被消灭,表明仍会上涨。
10、一般股票的升跌贴着均价运行,若发生背离将会出现反转。
11、盘面经常出现大手笔买卖,买进时一下吃高几个档位,表明大户在进货。
12、个股在盘整或下跌时,内盘大于外盘,且阴线实体小,成交量大,日后该股有行情的可能性大;大盘暴跌,而该股没跌多少或者根本没跌,下档接盘强,成交放得很大,后市有戏的可能大。
13、股价上冲的线头(曲线)绝对的多于下跌的线头时当看好该股。
14、在下跌的势道里,应选逆势股;在上涨的势道里,应选大手笔买卖的股票。
15、开盘数分种就把股价往上直拉,而均线没有跟上,往往都是以当天失败的形式而告终。
16、当日下跌放巨量,但收的阴线实体不大,而且大部分时间在昨日收盘以上运行,第二天涨的机会多。
17、涨幅在5-7%以上,内盘大于外盘,高点不断创新,低点不断抬高,说明有机构大户在进货。
18、分价表若是均匀分布说明大户不在里面,否则有大户介入
来自:http://www.10jqka.com.cn/modules.php?name=blog&mod=article&uname=year4538&aid=565673
IRC 上又有朋友问到这 JAVA 的 ,
1.
在 jre/lib/fonts/ 下建立个目录 fallback
比如我这儿就是
mkdir /usr/lib/j2sdk1.5-sun/jre/lib/fonts/fallback/
2.
在 fallback 里弄个中文字体
拷贝或链接都可以
比如我这就是
ln -s /usr/share/fonts/truetype/arphic/uming.ttf /usr/lib/j2sdk1.5-sun/jre/lib/fonts/fallback/
3.
进入 jre/lib/fonts/
fallback/ 执行 mkfontscale
再把 jre/lib/fonts/
fonts.scale 的内容加到 jre/lib/fonts/
fonts.dir
我这儿就是
cd /usr/lib/j2sdk1.5-sun/jre/lib/fonts/fallback/
mkfontscale
cd ..
cat fallback/fonts.scale >> fonts.dir
来自:http://blog.chinaunix.net/u/28007/showart_217907.html?
今天在使用GT4时,采用
globus-start-container启动容器和globus-stop-container终止容器时遇到一些问题,现归纳如下:
1.首先采用
globus-start-container -nosec启动容器,这个命令在运行GT4例子程序中会经常用到。
2.然后使用globus-stop-container终止容器。
但是发现,如果我采用globus-stop-container命令终止容器的使用,会出现:connection refused的错误。
另外一个窗口采用
globus-start-container -nosec启动容器的时候,却说Address in use。
百思不得其解,最后参考Globus网站,并通过自己的实践,终于解决了这个问题:
1.首先关于
globus-start-container,globus.org上是这样描述的:
Starts a standalone container. By default a secure container is started on port 8443 and is accessible via HTTPS. On successful startup a list of services will be displayed on the console. By default the non secure (HTTP) container is started on port 8080.
2.如果为
globus-start-container加上-nosec参数时,即使用
globus-start-container -nosec命令时
Starts a non secure (HTTP) container. Please note that this option only disables transport security. Message security still can be used.
3.然后关于globus-stop-container,globus.org上是这样描述的:
Stops a standalone container. By default this command will attempt to stop a container running on
localhost:8443 and perform a
soft shutdown.
这样就可以明白为什么采用
globus-start-container -nosec是在8080端口启动的container,而globus-stop-container要去8443端口关闭container,就会出现connection refused的错误,而且container也没有真正关闭。
而这个时候再次去启动container时,因为上次的container没有关闭,仍然回占用它所使用的端口,所以就会出现address in use的错误了。
所以在一般情况下,直接采用Ctrl-C关闭container是一个好方法。
如果要想通过globus-stop-container来关闭container的话,在启动的时候需要采用
globus-start-container不加-nosec参数。
在使用globus-stop-container来关闭container时还要注意一个问题,就是关于权限问题。
By default globus-stop-container
must be executed with the same credentials as the container it is running with. If the ShutdownService or the container is configured with separate private key and certificate files (usually /etc/grid-security/containercert.pem
and /etc/grid-security/containerkey.pem
) do the following to stop the container:
$ grid-proxy-init -cert /etc/grid-security/containercert.pem \
-key /etc/grid-security/containerkey.pem \
-out containerproxy.pem
$ setenv X509_USER_PROXY containerproxy.pem
$ globus-stop-container
$ unsetenv X509_USER_PROXY
$ rm containerproxy.pem
上面这段话的含义是globus-stop-container使用和container一样的证书来执行该命令,这里使用
containercert.pem和containerkey.pem来生成一个containerproxy.pem,最后使用这个代理证书来关闭
container。如果你遇到说找不到/tmp/x509up-uuid(uid是你用来执行globus-stop-container的用户的uid)
文件的情况,可以试图采用上面的方式来解决这个问题。
级别: 初级
Edna Nerona (edna@legacystudios.biz), 顾问, Legacy Studios, Inc.
2007 年 8 月 09 日
之前,我们向您提供了一份 “网格开发人员推荐阅读清单” 和 “面向网格开发人员的入门级开源工具”。现在我们又编著了一份代表网格计算未来发展的产品项目和组织清单。本文提供了在目前在不同领域(例如癌症研究、天文学和物理学)中开展的项目的详细清单。本文还介绍了工具包、安全性和数据管理。它们都是从各种在线资源获得,向程序员、管理员和新用户介绍了与使用、部署和开发网格基础设施有关的具体信息和项目。
开发网格的组织
本节将介绍开发网格产品的组织,它们所解决的问题,以及它们是如何影响网格技术的。网格部署产品可以划分为几类:通用网格、科学和社区网格、国家网格、地区网格和大学网格。
国家和国际通用网格
- Distributed European Infrastructure for Supercomputing Applications
- 作为一个领导国家超级计算中心的协会,DEISA(Distributed European Infrastructure for Supercomputing Applications)部署并操作了一个具有安全产品质量的分布式超级计算环境。通过增强欧洲在高性能计算方面的能力,该研究组织促进了各种科学和技术领域中的科学发现。DEISA 对现有国家高端平台进行了高度集成,使用了专用的网络,并获得了新型系统和网格软件的支持。
- DutchGrid
- 成立于 2000 年,DutchGrid 拥有很多成功的研究成果和计划,跨越多个科学协作领域。作为一个学术和研究网格计算的开放平台,DutchGrid 为荷兰的网格用户提供了可全球识别的身份证书。DutchGrid CA 是一个完全中立的项目。任何非盈利的研究人员和学术界用户都可以获得个人和服务器或主机证书来使用网格应用程序。
- Enabling Grids for E-science
- Enabling Grids for E-science (EGEE)项目将来自 32 个国家的 90 多个机构的科学家和工程师组织在一起,为科学家使用的电子科学(e-scinece)提供了一个无缝的网格基础设施。EGEE 网格包含了超过 30,000 个 CPU,它们可以一周 7 天、每天 24 小时地使用,另外还提供了大约 5 PB(5 百万个 GB)的存储空间,平均要维护 30,000 个并发作业。拥有如此众多的资源改变了科学研究所采用的方法。EGEE 是由欧盟建立的一个为期 4 年的项目。
- Grid5000
- Grid5000 项目的目标是建立一个高度可配置的具有可控性并可监视的实验网格平台,网格研究人员可以使用它来试验从网络协议层到应用程序层之间的所有软件。Grid5000 将法国地理上分布的 9 个城市连接在一起,提供了 5,000 个 CPU。这 9 个城市包括:Bordeaux、 Grenoble、 Lille、 Lyon、 Nancy、 Orsay、 Rennes、 Sophia-Antipolis 和 Toulouse。
- LA Grid
- LA Grid 的发音是 “lah grid”,它是第一个全面的计算网格,将来自美国、拉美和西班牙各个机构的职员、学生和研究人员联系在一起,协作开发可满足医疗服务行业内商业和社会需求的复杂行业应用程序。除了大学之外,LA Grid 还吸引了全球工业界的参与,从而增强了在很多领域内的创新,包括卫生保健、生命科学和飓风灾难以及灾难防御。
- Open Science Grid
- Open Science Grid (OSG)是科学研究使用的一个分布式计算基础设施。OSG 联盟是惟一一个由各大学、国家实验室、科学协作组织和软件开发人员将海量计算和存储资源组成一个共享的统一网络基础设施的联盟。
- TeraGrid
- TeraGrid 是由 National Science Foundation 创建的一个开放科学研究基础组织。将 9 个合作站点的业界领先的资源组合起来,TeraGrid 创建了一个集成的持久计算资源。通过采用国家专用网络的一条高速千兆网络彼此连接,TeraGrid 提供了超过 150 teraflops 的计算能力、以及接近 2 PB 的循环存储空间、无数的科学数据集、专用的数据分析工具、科学网关、以及用来简化对有价值资源和可视化资源访问的用户门户。
科学和社区网格
- AstroGrid
- AstroGrid 是一个开源项目,它的建立是为英国和国际天文学家创建一个工作用的虚拟天文台(Virtual Observatory,VO)。AstroGrid 是由英国政府建立,它通过 International Virtual Observatory Alliance (IVOA)与国际上其他 VO 项目紧密协作。作为这个社区的领导成员之一,AstroGrid 提供了国际通用的接口标准,用来促进天文数据的科学集成,并在全球范围内处理资源。
- cancer Biomedical Informatics Grid
- cancer Biomedical Informatics Grid (caBIG)是一个自发组织的网络或网格,它将个人和机构联系在一起,可以共享很多数据和工具,它创建了一个全球范围的癌症研究资源。caBIG 的目标是为了加速癌症预防和治疗方面的创新方法的迅速问世。caBIG 所创建的基础设施和工具在癌症社区之外也有很广泛的应用。caBIG 目前正在 National Cancer Institute 的 Center for Bioinformatics 的领导下进行开发。
- International Virtual Data Grid Laboratory
- International Virtual Data Grid Laboratory (iVDGL)是一个全球的数据网格,用于物理和天文领域的前沿实验。它的计算、存储和网络资源分布于美国、欧洲、亚洲和南美,提供了一个独特的实验环境,可用来测试和验证国际的和全球范围的网格技术。位于欧洲和美国的站点通过一个由 European DataTAG 项目创建的数千兆每秒的跨越大西洋的链接链接在一起。
- World Community Grid
- World Community Grid 的使命是创建全世界最大的公共计算网格,研究对人类有益的项目。World Community Grid 的成功在于:集合了个体为实现更美好的世界而贡献出的未用的计算时间。World Community Grid 正在研究一些公共和非盈利组织才能使用的技术,从而开展一些人道主义研究;如果没有公共网格,高昂的计算基础设施将使研究无法完成。
- Worldwide Large Hadron Collider Computing Grid
- Worldwide Large Hadron Collider(LHC)Computing Grid 的目的是处理 2007 年前 CERN 的 LHC 所开展的实验所产生的空前数据量。LHC 开展的实验的计算需求极为庞大。每年大概会生成 12 到 14 PB 的数据,这大约相当于 2 千万张 CD。对这些数据进行分析大约需要 70,000 台目前最快的 PC。通过部署一个全球范围的计算网格,将分布在欧洲、美国和亚洲的科学计算中心的资源集成到一个全球虚拟化计算服务中,LHC Computing Grid 可以满足这些需求。
美国地区的网格
- Northwest Indiana Computational Grid
- Northwest Indiana Computational Grid(NWICG)是来自 Purdue University-West Lafayette、 Purdue University-Calumet 和 University of Notre Dame 的合作研究和教育组织。NWICG 重点关注的是国家科学和研究活动,其创建的网络基础设施可以支持重大问题的解决方案,以及在高性能计算底层技术领域启用保持世界领先的技术。它们正在 Department of Energy's Argonne National Laboratories 的协助下,在这 3 个大学之间为 Northwest Indiana 开发一个可扩充的高速、高带宽的科学驱动计算网格。
- SURAGrid
- Southeastern Universities Research Association(SURA)是一个组织协作联盟,它合并各种资源以将网格技术上升到无缝的共享基础设施。SURAgrid 着重关注的是对大量分布式能力的直接访问,从而用于研究和教育社区。SURAgrid 促进了以下领域的开发:所贡献的资源、项目特有的工具和环境、高度专门化访问、通往国家和国际的网络基础设施网关。
- Texas Internet Grid for Research and Education
- Texas Internet Grid for Research and Education (TIGRE)项目的使命是将整个得克萨斯州的计算系统、存储系统、数据库、可视化实验和显示以及仪器和传感设备整合在一起,创建一个计算网格。通过集成强大的计算能力,为得克萨斯州在学术、政府以及工业界的研究人员提供增强的计算能力,TIGRE 希望能够对生物医学、能源和环境、航空宇宙、材料科学、农业和信息技术的进步提供帮助。
开源网格项目
这些网格项目覆盖了很多领域,包括网格基础设施工具包、中间件工具包、数据工具、安全等。下面给出了一些迅速发展的网格项目和工具。经常访问这些站点可以了解有关它们领导网格技术不断发展的最新消息。
网格基础设施项目
帮助建立自己网格的开源网格基础设施项目。
- Berkeley Open Infrastructure for Network Computing
- Berkeley Open Infrastructure for Network Computing (BOINC)是项目使用的一个软件平台,例如 distributed.net 和 SETI@home,它使用了数百万台志愿者计算机组成一个并行的超级计算机。可以获得该平台的源代码,并且鼓励感兴趣的 C++ 开发人员帮助开发平台代码。BOINC 目前可以支持 Windows®、Linux®、UNIX® 和 Mac OS X。 CPU 平台的需求可能在使用 BOINC 的项目客户机之间会有所不同。
- Uniform Interface to Computing Resources
- Uniform Interface to Computing Resources(UNICORE)提供了一个可随时运行的网格系统,包括客户机和服务器软件。UNICORE 让分布的计算和数据资源在内部网和互联网上以一种无缝的安全方式使用。UNICORE 设计的重点是几个核心原则:无缝访问异构环境、安全性、站点自治、易于使用的强大的 GUI 客户机,以及可以进行简单安装的快速启动包。
网格中间件项目
以下项目已经为美国和国际项目提供了一些高级工具,可以简化访问大量网格功能,例如计算、可视化和存储资源。您可以与不同的网格进行交互,或者为自己的网格进行定制。
- gLite
- gLite 是网格计算使用的下一代中间件,它诞生于 12 个学术机构和行业研究中心的 80 多个工作人员的联合努力,是 EGEE 项目的一部分。gLite 充分利用分布在 Internet 上的计算和存储资源,为构建网格应用程序提供了一个最佳框架。
- National Research Grid Initiative
- National Research Grid Initiative(NAREGI)位于日本,它着重于网格中间件的研究和开发,为广泛分布的、高级研究和教育目的实现大规模的计算环境。
- Ninf-G
- Ninf 也是日本的一个项目,正在开发编程中间件,使用户能够通过一个简单易用的接口来访问各种资源,例如网格中的硬件、软件和科学数据。Ninf-G 是一个开源软件,支持开发和执行分布式计算资源中使用 Grid Remote Procedure Call(GridRPC)的启用网格的应用程序。
- NorduGrid
- NorduGrid 中间件,也称为 Advanced Resource Connector(ARC),是一个按照 GPL 许可发布的开源软件解决方案,可以实现保证产品质量的计算和数据网格。ARC 为基本网格服务提供了一个可靠实现,例如信息服务、资源查找和监视、作业提交和管理、代理和数据管理,以及资源管理。大部分服务都是通过 GSI 的安全层提供的。中间件是在诸如 OpenLDAP、OpenSSL、SASL 和 Globus Toolkit(GT)之类的开源解决方案基础上构建的。
- OGSA-DAI
- OGSA-DAI 项目着重关注的是中间件的开发,从而有助于对网格中不同来源的数据进行访问和集成。这个项目与 Globus、OMII-Europe、NextGRID、SIMDAT 和 BEinGRID 紧密协作,确保 OGSA-DAI 软件可以在各种网格环境中很好地工作。
- ProActive
- ProActive 是 Java™ 网格中间件库(其开源代码具有 LGPL 许可),可用于进行并行、分布式和多线程计算。通过采用一个简单元语的精简集,ProActive 提供了一个详尽的 API 来简化网格计算应用程序的编程,这些程序均分布在 LAN、工作站集群和 Internet 网格中。
安全项目
为了保护重要的基础设施和信息,安全性需求一直以来都随网格计算的发展而演变。这些项目代表了一些网格安全解决方案的一些最先进的安全标准和实现。
- GridShib
- GridShib 是在 NCSA 和 University of Chicago 之间开展的由 NFS 创建的项目,用来将联合授权基础设施(Shibboleth)与网格技术(Globus Toolkit)进行集成,从而为分布的科学社区提供基于属性的授权。
- Grid User Management System
- Grid User Management System(GUMS)是一个网格身份映射服务(Grid Identity Mapping Service)。当站点资源不使用本地网格凭证,而是使用一种不同的机制来标识用户时(例如 UNIX 帐号或 Kerberos 准则),就需要使用身份映射。
- PRIvilege Management and Authorization
- PRIvilege Management and Authorization(PRIMA)是一个提供增强的网格安全的系统。PRIMA 是一个全面的网格安全模型和系统。在 PRIMA 中,特权是一种与平台无关的、细粒度权限的自包含表示。PRIMA 通过从资源内部表示来具体化对资源对象的细粒度访问权限实现了特权的平台无关性。
资源管理和调度
网格的一个基本部分就是在资源之间管理和调度作业。下面这些项目展示了有关的一些策略。
- Community Scheduler Framework
- Community Scheduler Framework(CSF)是一个基于 OGSA 的元调度器的开源实现。它可以支持最新的 WS-Agreement 规范和 Globus Toolkit 的 GRAM 服务。CSF 填补了现有资源管理现状的不足,并集成了 Platform LSF 和 Platform Multicluster。CSF 开源项目已经包括到了 Globus Toolkit V4.0 发行版中。
- Special Priority and Urgent Computing Environment
- 高性能建模和仿真在决策制定和预测方面起到了推动作用。对于时间关键型的应急应用程序,例如灾害天气预报、洪水建模、流感建模,任何延时会使结果变得毫无用处。这需要使用专用的基础设施快速、自动而且可靠地提供计算资源。Special Priority and Urgent Computing Environment(SPRUCE)是一个用来在传统超级计算机和分布式网格上支持紧急或事件驱动计算的系统。
网格资源监视
对资源和应用程序的监视是网格成功的关键。通过一个简单易用的接口,这些复杂工具可以帮助用户搜集、分类和监视各种类型的资源。另外,系统管理员还可以监视网格的健康状况。这些不断发展的网格项目列出了几个开源选择。
- GridCat
- GridCat 是一个在地理图上使用状态点以及编目的高级网格编目系统。这个图可以帮助调试站点问题。编目中包含了有关站点的准备信息,以及每个站点的很多其他有价值的信息,帮助应用程序用户和网格调度器开发人员进行作业提交和作业调度。GridCat 尝试在其最简单的状态表示中表示网格站点。
- Gridscape II
- Gridscape II 是一个定制的门户组件,可以在其自身的网格门户中使用,也可以插入到现有网格门户中。Gridscape II 负责从各种异构和分布式资源中搜集信息,并在单个界面中无缝地将它们呈现出来。它充分利用了 Google Maps API 来提供一个高交互性的用户界面。Gridscape II 非常简单易用,为那些不希望大量投资以从头开始开发自己的监视门户的用户提供了一个解决方案,也为那些希望简化定制内容的用户提供了一种解决方案。
存储和数据管理
从开源高性能文件系统到无缝地访问异构环境中的数据,以下项目集合了各种存储和数据管理解决方案并进行了优化。这种趋势强调的是资源之间的数据存储、管理和移动,以及通过网络对数据资源的连接。
- Lustre
- Lustre File System,这是一个来自 Cluster File Systems Inc. 的高性能开源文件系统,它是一个分布式文件系统,消除了很多传统分布式文件系统中存在的性能、可用性和可伸缩性问题。Lustre 是一个高度模块化的下一代存储架构,它将现有的开放标准、Linux 操作系统和创新协议组合成一种可靠的、网络中立的数据存储和检索解决方案。通过在集群和数据共享环境中提供高 I/O 吞吐量,Lustre 还提供了与物理存储上的数据位置无关的独立性,防止单点失效,并且可以从集群的重新配置和服务器或网络故障中快速恢复。
- NeST
- NeST 是一个软件网络存储设备,为特定时间段提供了安全的存储分配。分配单元或份额(lot)的大小和持续时间可以在 NeST 和用户或应用程序之间进行协商。这些份额的大小也可以扩充,时间可以扩展,或者划分成不同的层次。另外,NeST 还为份额和文件访问提供了访问控制列表。NeST 提供了多种协议接口,包括内部使用的 Chirp、HTTP 和 GSI-FTP。
- SAMGrid
- SAMGrid 是一个通用数据处理系统,它被设计为用来测试大量数据(PB 级)集和广泛分布的产品和分析工具的一个关键设备。当前产品的组件提供了大量的服务,可用于分布式系统中的数据传输、数据存储和进程记录。
- UberFTP
- UberFTP 是在 GridFTP 基础上构建的,它是第一个启用 GridFTP 的交互式 FTP 客户机。基本的 GridFTP 客户机不是可交互式的,它一次只允许传输一个文件。UberFTP 提供了交互式工具,工作方式与流行的 NCFTP 工具类似。它支持 GSI 认证、并行数据通道以及第三方传输功能。
结束语
网格计算是最令人兴奋的技术之一,它在很大程度上影响了我们解决复杂问题和共享各种资源的方式。除了癌症和物理学之外,它对于安全和认证、查找、监视、信息服务、数据管理、资源管理和调度也有重大影响。
参考资料
学习
获得产品和技术
- 请下载 IBM 产品评测版,尝试使用来自 DB2®、Lotus®、Rational®、Tivoli® 和 WebSphere® 的应用程序开发工具和中间件产品。
- 使用 IBM 试用软件 改进您的下一个开源开发项目,这些软件可以从 developerWorks 下载或从 DVD 获得。
讨论
关于作者
|
|
|
Edna Nerona 是 Legacy Studios,Inc. 的所有人,这是一家位于 San Diego 的创新服务公司。她拥有 San Diego State University 的新闻学学士学位,曾经在 San Diego Supercomputer Center 和 Entropia,Inc. 工作过。她还是 Toastmasters International 的一名多才多艺的发言人。
|
来自: http://www.ibm.com/developerworks/cn/grid/gr-gridorgs/
羽球服装及附件:
羽毛球服装选择相对容易了很多。但不是任何运动衫都有资格可以成为羽毛球衣。选择的时候还是要有一些原则的。不要选择纯棉的衣服,因为纯棉的衣服虽然吸汗,但是能力有限,并且不容易蒸发,随着汗水的吸收,自重会加大,到最后会贴在身上,非常的不舒服。夏季不要选择涤棉的衣服,涤棉的衣服虽然比纯棉舒服了很多,但天气炎热的时候还是会出现与纯棉服装一样的结果。冬季如果不是在非常温暖的地区,选择涤棉服装会提高保暖性能。不要选择过于贴身的衣服。过于贴身的衣服有可能会限制球员的运动范围,打球的时候会不太舒服。要选择轻量化服装。并不是每一件衣服都会像知名品牌羽球服装那样的轻盈。进行羽毛球运动时,最好还是穿着专门的羽毛球品牌服装,或是针对羽毛球运动的特点而开发出来的服装。YONEX的衣服具有加热降温功能。夏天和冬天分别能提供低3度和高3度的感觉,是羽球服装的精品。选择运动短裤时要选弹性大的,因为羽毛球运动经常需要球员以蹬跨步移动,一件有弹性的运动短裤可以使动作更舒展而不必担心对服装构成任何伤害。
羽球服装特点简述:
YONEX:
YONEX品牌的服装上镜率最高。其特点也比较明显。材料大致分两大类,特殊功能性纤维和普通功能性纤维。
普通功能型纤维就是常见的YONEX 100%涤纶(polyster)的产品。这里要特别说明的是,有很多走私水货的YONEX服装,或假冒的YONEX服装,都是涤+棉的。这种衣服的排水性和蒸发汗水能力都远差于正品行货。在天气较热出汗量较大时穿着,衣服会因含有棉的成分而粘贴在身上。令人非常难受。但因其售价低廉,还是可以迎合一小部分人的消费需要。SHBC不推荐穿着这样的服装上场打球,如果真的不愿意花很多钱来购买YONEX品牌的服装,还有KASON服装可供选择。KASON的服装也有100%涤纶(polyster)的,在提供了较低价格的同时,保证了羽球服装应有的性能。
特殊功能性纤维指的是YY的HEAT CAPSULE(热囊)和VERY COOL(冷却)纤维。这两种材料成分标识其实也是100%涤,但所用的材料与普通的YONEX服装不同,VERY COOL服装一般在领子后面的吊牌下方都会带有VERY COOL的标记,比较好辨认。 需要注意的是,SP版的衣服使用了一种叫做TRUE COOL的标记,TRUE COOL的标记与VERY COOL类似,但所谓的TRUE COOL是100%棉生产的,这种衣服很明显是根本不值得购买的。且棉产品容易起皱,放在球包内挤压后穿着会比较难看。
VERY COOL和HEAT CAPSULE可以提供升高三摄氏度或降低三摄氏度的体表感受,在适当的季节穿着相应特性的产品打球,是非常舒适的。因其功能特殊,价格较一般产品贵了不少。约为普通功能型纤维衣物的1.5-2倍,但因其舒适性出色,还是很受欢迎的。
VICTOR(胜利)的服装以及KASON(凯胜)的服装虽然品牌不如YONEX那么出名,但衣服的质量是不错的。尤其是VICTOR的服装,06年的设计非常新颖,色彩也很讨好。一样是排汗速干面料,不是非常追求品牌的话,穿起来一样很舒服。
其他还有如BONNY(波力)的银纤维,竹炭纤维也是很不错的衣服,只是设计实力略欠缺,如果能买到心仪的款式,也是很好的选择。
羽毛球袜:
很多人觉得自己的袜子已经够厚了,没必要花几十块去买一双名牌羽球袜,就算是KASON,FLEX等品牌,一双袜子也要二十元以上,其实这种想法是不对的。再厚的袜子,也很难比的上专业羽球袜的厚度。很多对此想法持怀疑态度的人,在亲手摸过羽毛球袜以后,往往会立刻购买。足见普通加厚运动袜与专业羽球袜的区别。
勿庸置疑,YONEX的VERY COOL羽毛球袜是穿着最舒适的羽毛球袜了。关于VERY COOL,这里就不再多说了。价格要比一般的袜子略贵一些,有条件的话这是第一选择。
其他品牌如VICTOR,KASON,FLEX的袜子质量基本相同,价格低但是品质不低,也都可以起到良好的保护作用。只是没有VERY COOL那么舒服。
需要注意的是,一双正品羽毛球袜的厚度大致相当于半码鞋,考虑到运动中双脚会继续充血膨胀,买鞋最好大1码。
来自:http://www.shbc.cn/dispbbs.asp?boardID=307&ID=40224&page=1
羽毛球拍:
拍子的选择是目前球友们最关心的一个问题了。在上羽网论坛上每天要有很多次发言是与球拍的选择有关的。虽然球拍是一个很重要的部分,但在实际运动中,球拍的重要性被夸大了不少。需要强调的是,一把好的球拍可以给使用者以信心,但是根本不可能提高使用者自身的水平。
目前几乎所有的球拍都是碳素,石墨复合材料制成的。有些生产商喜欢加一些特殊的材料如TI金属网,KEVLAR(凯芙拉),纳米复合材料。需要着重说明的是,这些附加材料只占了总材料的一少部分,一支球拍的99%以上始终还是这种碳素石墨复合材料。附加材料带给球拍性能的改变并不会是非常明显的,但确实有效。
羽毛球拍是球员和球之间的“中介”,由以下几种特性来分类:形状,硬度,重量,平衡点。
目前的球拍主要有两种形状:圆头拍和方头拍。圆头拍就是传统的拍形,拍头上部略尖,球拍整体呈卵形。这种卵形球拍甜区较小,但甜区部位力量爆发非常的集中。圆头拍对初学者来说较难上手。目前此类拍头的球拍型号已经不是很多了。方头拍(ISO拍面)是后起之秀,因其甜区巨大在90年代初期后迅速风靡全球。
球拍的硬度类似于拍线的拉力大小。越硬的球拍需要越大的力量驱动,反之亦然。
球拍的重量是多样化的。常见的球拍重量范围一般在80-95克。同拍柄尺寸单位一样,不同的厂商有各自的重量单位定义,但是最流行的就是YONEX公司所使用的U系统。U=95-100克,2U=90-94克,3U=85-89克,4U=80-84克,5U=79-75,一般常用的球拍基本上都是2U-4U,79克以下的一般都叫做超轻拍,主要是设计给女性,或有特殊需要的球友。而95克以上的一般都是金属拍,主要是给以打羽毛球为健身手段而不愿在器材上花费过多的人。
球拍的重量决定了挥拍速度。使用同样的挥拍力量,越轻的球拍可以产生越高的挥拍速度。简单来说,越轻的球拍使用起来越灵活。但是球拍并不是越轻越好的,因为越轻的球拍就越不稳定,需要越多的力量保持其运动轨迹。重一些的拍子在挥动时可以带有更多的动能,击球瞬间可以产生更大的势能。这就是为什么很多进攻型的拍子头都会比较重的原因。
球拍的平衡点决定了一支球拍的重量分部情况。目前市场上的很多球拍都已经是头重型的了,头重型的球拍在挥动时可以更加的稳定,而平衡型球拍更灵活一些。
球拍的选择是非常个性化的,没有任何人可以说某种球拍的某种特性就一定强过另一种。选择球拍可以参考一些专业意见,但最终如何选择还是要由自己来决定。
YONEX球拍特点:
NS系列 NS系列目前成员有NS6000,NS7000,NS8000。
NS6000的拍杆较软,带有LSC减震系统,是YONEX于2006年推出的专为女性设计的球拍。该拍拍身较柔软,ISO(小平头)拍面,适合女性使用。
NS7000,此拍是为中高级业余选手设计的。采用8mm粗杆,杆身弹性很好,拍头采用破风设计,ISO中型拍面,用于防守时非常轻松。平抽挡能力低于NS8000,MP-100等。由于平衡点适中,驱动轻松,所以拉后场球比较容易。杀球威力与TI-10,MP-100相比略有不足。适合控球型选手。此拍曾被国家队混双世界冠军高凌所选用。
NS8000,此拍是目前纳米系列中销量很大的型号。目前销量甚至要超过最新款的NS-9000。拍框10点2点位以及拍杆顶端采用了C60(弗拉伦)填充的纳米材料。7mm细杆,爆发力极好。摒弃了传统的吹气管工艺而采用了发泡材料成型的制作方法,使拍框稳定性更好,击球时落点非常准确。采用了单向线孔设计,使球拍受力更加均匀,更耐用。因其弹性出色,拉球比较省力。均衡的设计使此拍处理网前球轻松自如,用于双打时,NS8000平抽挡出球的速度比NS7000要快。虽然是轻量化设计,但在YONEX球拍坐标中,NS8000进攻能力以极微小差别仅低于MP-100。因其拍头较轻,连续进攻能力很强,在业余选手中此拍比MP-100更受欢迎,销量很大。
NS9000,最新款重型武器。拍头明显重于NS8000。9000的出现将MP-100赶下了进攻王者的宝座。分为S/X两款分别对应硬和超硬两种中杆硬度。8mm粗杆拍柄加长,想要用好NS9000确实需要一些力量的支持。同样采用发泡成型的制作方法。新的线孔位置,将球拍击球甜区略微上移。ELASTIC TI的使用是拍框的稳定性和弹性都有不小的进步。关于此拍更详细的内容,可参考本论坛steven_gu所作的“NS-9000使用体会”一文。
AT系列
AT系列是TI系列高端拍升级后的产品。拍框底部采用了传统的盒式结构,而上部则采用了创新的ARMORTEC技术。ARMORTEC技术最大的特点就是强度高,并带有钛金属条配重。在加强了拍框12点位强度的同时也将球拍的中心向12点位移动,使进攻更加凌厉。AT系列拍身都采用了轻量化设计,在保持了拍头足够重的前提下使整拍重量只有3U,4U。专业选手使用此拍实测时杀球速度可以有5%的提高。
AT700,2003年诞生,在2004年遍地开花,2005年几乎是言必谈700了。此拍因为有大量的优秀选手选用,所以几乎成了业余中高级选手购拍的首选。就连国家队内多年使用CAB20的夏煊泽也已经换成了AT700了。AT700的杆身很硬,头很重,进攻能力极强,拍框采用盒式结构加ARMORTEC钛装甲配重,稳定性很好,强度极高,可以承受很高的拍线拉力,深受专业选手的喜爱。驱动这样的球拍需要较强的腕力。如果力量不足,可以考虑用NS8000代替。
AT800,世界著名双打选手拉斯姆森用的就是AT800中的进攻型(OFFENSIVE)。而另一位著名双打选手西吉特使用的是防守型(DEFENSIVE)。进攻型的AT800包括了AT700所有的特点,而且800比700还要硬一些。由于球拍的KICKPOINT(弯折点)不同,AT800的平抽挡速度更快,更精准。800进攻型杀球的威力也要比700略微大一点点。AT800/OF和DE是非常适合双打的一对球拍。也是目前高端拍中唯一的一对专为双打而设计的球拍。性能非常的优异。是喜爱双打的业余爱好者首选。
MP系列
MP系列是YONEX产品线最全面的一个系列。从进攻性最强的MP100到柔软舒适的MP23一应俱全。该系列产品最大的特点就是拍框上带有muscle power弧形设计。Muscle power最主要的作用就是降低拍线张力对线孔边缘的压力,减少较高磅数对球拍的伤害,并在拉线厚较长的一段时间内保持相对较稳定的线床张力。
MP100,2000年YONEX推出的产品。红+黑的涂装非常惹眼。该产品设计定位就是进攻。是一把除了进攻还是进攻的球拍。拍框采用加钛设计,强度高,稳定性好,MUSCLE POWER技术的使用更保持了线床张力的持久,平衡的设计使球员可以在连续进攻中节省不少的体力。添加U Ti的 8mm中杆非常硬,弹性极好,但是因为此拍只适合于爆发力很好的进攻型球员,所以在业余选手中选用不多。
MP99,世界一号男单选手林丹在换用AT700之前使用的就是这个型号。MP99的亮黄色外观非常讨人喜欢,尤其是讨女生的喜欢。所以有很长的一段时间,国家队女队中几乎是一片香蕉黄。与MP100类似,MP99也是3、9点加钛的设计。7mm的细杆同样带有了U Ti,因拍杆细了1毫米,所以比MP100要略软一些。虽然当年此拍风靡一时,但是因为近一段时间与MP99球拍特点类似的新款球拍大量涌现,现时的99已经不再吃香了。想要购买MP99的人不妨试试NS7000。
MP88,peter gade曾经使用这把球拍很长时间。现在已经更换为AT700了。MP88的拍杆中也使用了U Ti,保持了MP高端拍一贯的高弹性。MP88拍杆比MP99 100要软一些,发力相对容易一些。拍头较重,拍面比较稳定。是一把性能出色非常适合业余爱好者使用的球拍。
MP66,这把球拍的风格与NS6000有些类似。色彩也比较相似,都很时尚。只是没有NS6000那么多的高科技。头轻型的MP66在使用中非常的灵活,深受女性球友的欢迎。此拍弹性适中,用于双打时是一把很好的防守拍。
来自:http://www.shbc.cn/dispbbs.asp?boardID=307&ID=40224&page=1
手胶(柄皮):
手胶是缠在球拍握把上用以提高摩擦力的物品的统称。目前主要分两类,PU手胶和毛巾手胶。早起曾经使用过的真皮手胶现在已经基本退出市场。只有个别款式的球拍原配的柄皮还在使用真皮制品。与拍线和球之间的关系类似,手胶是和球员双手关系最密切的。羽毛球运动需要很多手指,手腕的细腻动作,一根合适的手胶可以及时准确的将击球后的感觉反馈给球员的手部。
一根好的手胶不但可以提供适当的阻尼使球拍握的更牢,还可以带给球员柔软舒适的手感,吸收打球时球员手部的汗水使球员保持手部干燥不易打滑。PU手胶因其较长的使用寿命,不易滋生细菌,吸汗后手感的保持和低廉的价格而深受广大业余爱好者的欢迎。毛巾胶虽然价格相对较贵并且使用寿命断,但因其手感柔软,吸汗能力强还是有很多人坚持使用。
一条好的PU手胶应该相对耐用,阻尼适当,吸汗抗水能力强,抗菌,不产生异味。一条好的毛巾胶应该不掉色,不掉毛,圈绒较粗壮,薄厚适中,吸汗后不僵硬,不起球。
使用手胶时应在保证称手,适当柔软的前提下尽可能的薄。过厚(过粗)的手胶会使手部僵硬,影响技术的发挥。
选择手胶的三要素:类型(毛巾还是PU),尺寸(薄或厚),阻尼(该特点主要针对PU手胶的黏性)
使用手胶的几种方法:
1、在原配柄皮上加PU手胶。目前国内市场的各品牌球拍最常见的尺寸是周长86mm的握把。该尺寸等同于YY G4的粗细。在缠新的PU手胶上去的时候,尽量不要撕掉拍柄的原配热缩膜(目前只有YY用热缩膜包装)。如果是普通的拍柄包装,则需在取下包装物后加缠一层UNDERLAP。UNDERLAP弹性很大,强度也不错,吸水性强,是非常好的衬垫物。如果没有UNDERLAP,也可以用一层保鲜膜代替。只是手感会稍差一些。
2、拆掉原配柄皮后加缠毛巾胶。这样做是为了保持球拍合理的尺寸。因为毛巾胶比较厚,不拆除原配柄皮直接加缠毛巾胶会导致拍柄过粗,影响水平发挥。在缠毛巾胶之前,一定要使用UNDERLAP保护拍柄。
3、拆除原配柄皮后用PU手胶调整握把粗细。有很多球友在不同季节喜欢换用不同类型的手胶。夏天用毛巾胶,冬天用PU手胶。这种做法比较符合上海的季节特点,但是手胶的尺寸比较难控制。所以一般都需要去除原配柄皮,然后重新以PU柄皮来调整整个握把的粗细。在需要用毛巾胶的时候,只要去除所有的PU手胶即可,等到冬季来临,再按原来习惯缠回PU手胶。
市场上的手胶品种非常多,比较优秀的品牌低价位的有ALPHA,中极星,中高价位的KIMONI, YONEX。其中YONEX的毛巾胶手感较好。为世界各国专业运动员所喜爱。美国品牌FORTEN(华腾)虽然进入中国市场很晚,但是其手胶色彩鲜艳,价格低廉,颇受时尚球友的喜爱。KIMONI(金万利)手胶是制作手胶起家的专业公司,与YONEX不同的是,KIMONI手胶是全日本制造。品质极佳,是目前为止唯一一个手感,耐用性都要超越YONEX的产品。不过用好东西总要有点代价,其薄手胶KGT100价格要高于目前YONEX 102C的售价。其实KIMONI的手胶在原产国的价格与YONEX相比并不高,只是YONEX的手胶在国内卖的太廉价了。
手胶简介:
YONEX
AC-102,销量最大的YONEX手胶。PU材料制造。标准长度1100毫米。实际长度大约为1150毫米左右。PU材料的表层有一层YONEX专门开发的柔软覆膜,表层材料黏性好,吸汗能力强,手感舒适。因其表层材料是覆盖在带基上的,一旦表层材料磨穿,手感会下降较快。该手胶耐用性一般,在高强度使用条件下,表面覆膜经常会大片脱落,这种情况属于产品特征,并不代表质量有问题。
AC-104EX,聚氨酯+橡胶制造。标准长度1100毫米。在手胶的中间带有一条5毫米宽2毫米高的发泡材料制造的长条。缠好以后会显出一条一条的龙骨,使球拍更易于掌握。因为这种手胶加入了橡胶材料,故该手胶价格昂贵,但是此款手胶耐用性较好,也有一部分用户坚持使用。
KIMONI
世界第一手胶品牌,其性能有口皆碑。
KGT-100 无孔薄手胶。PU材料,标长1050mm。颜色丰富(19色),手感极佳。各方面性能均超越YONEX产品。
最大特点:耐用,手感保持时间长。
KGT-170 我所用过的性能最出色的厚手胶,难怪其包装外面印着“世界最强”,我觉得是当之无愧的。如果非要说有缺点,那就只能说他的价格不够“实惠”了。不过好东西从来就没实惠过,可以理解的。如果有条件,购买一支高端球拍时,可以当场将原配柄皮撕掉,换装此产品。其优异的性能绝不会令你失望。
最大特点:弹性保持时间长,隔离性好,对拍柄保护能力强。相同情况下,此产品弹性保持能力比最接近它的产品要长3-5倍。
该品牌其他型号虽然很多,但所用原料相同,带有龙骨的产品价格要低于YONEX AC104EX。还有打孔的产品以增加透气性,需要注意的是,打孔的产品最好先做隔水处理后再使用,不推荐手汗多的人使用打孔手胶。
值得一提的是,现在只有此品牌还有传统的真皮手胶。如果你心爱的老款名拍手胶破损,可以用此来替换了。
KARAKAL
该品牌的厚手胶手感良好,虽然比不过世界第一的KIMONI KGT-170,但价格实惠的多,也是值得推荐的。
来自:http://www.shbc.cn/dispbbs.asp?boardID=307&ID=40224&page=1
羽毛球拍线:
羽毛球拍线是羽毛球运动中非常重要的一种耗材。球员每一次正确击球动作唯一会接触到羽毛球的就是拍线了。每一次击球质量的感觉将直接由拍线传递给球拍然后到达球员的手上。根据球员当前的打球风格以及打球的水平,选择适合的拍线及拍线拉力是非常重要的。拍线的基本特点有耐用性,弹性,击球声音,控球能力和吸震性。生产厂家会将不同拍线的性能特点以5边形的方式表现在该拍线的包装上。选择自己所需要的指数最高的拍线就可以了。举例,如果追求耐用性,那么就选择耐用指数最高的拍线。如果追求高弹性,则需选择弹性直属最高的线。一般来说,冬天应该用略粗一点的拍线,因为冬天气温低,拍线变的相对较脆,很容易断裂。夏天拍线的选择可以随意一些。 相同材质情况下,越粗的线就越结实(耐用),越细的线弹性就越大,越不耐用。目前高档球线中最耐用的拍线是YONEX BG 65,以及ASHAWAY(傲狮威)的A65(RALLY系列)。注意,ASHAWAY的中文名是傲狮威,而不是雅沙维。品牌名称问题最后再讲。
拍线拉力将直接影响到球拍的使用性能,一般来说,击球点越准,力量越大,可以使用的拍线拉力就越高。随着拍线拉力的提高,羽毛球拍上甜区的尺寸也快速的缩小,如果只是单纯的力量大而击球点准确度不够,高拉力拍线将会把每一次偏离甜区的击打所产生的所有震动通过球拍直接传递到球员的手腕、前臂,使球员受到慢性的隐性伤害。这种伤害是在相对较长的一段时间内所积累下来的。起初症状并不明显,但到达一定程度后,将会立刻凸显出来。具体症状为手腕内有撕裂感剧痛,手无法大力紧握等。一旦发现自己的前臂具有这种特征,就应该减少打球时间,运动后采取一定的养护措施,降低拍线拉力,或更换较软球拍。
判断是否已受到这种伤害可用以下方法。持拍手自然端平,大臂和小臂呈90度夹角。此时,小臂应指向身体的一侧。手掌外翻对准自己面对的方向,另一只抓住自己的持拍手,慢慢加力向内扭转(逆时针方向)。如果达到一定角度以后还只是单纯的自然疼痛(因肌肉、韧带、关节等达到极限位置产生的不强烈的隐性疼痛),则是手腕还处于健康状态。如果扭转到一定程度后感觉到手腕内的撕裂性的疼痛或针刺性的疼痛,则是已经受伤了。如果轻轻一扭就已经产生了强烈的疼痛,则是伤的较重了。
随着拍线拉力的提高,拍线的弹性将快速降低,寿命也急速缩短。一些使用高拉力拍线的业余高手们即使用了BG65这样极高耐用性的线,1-2周内也会断线。而国家羽毛球队运动员甚至每1-2天就会断线一次。当拍线拉力到达一定程度时,所有弹性特征都会消失的无影无踪。这也是为什么国家队员一般都只选择高耐用性的线(如BG65,65TI)而不考虑高弹线的原因了。过高的拍线拉力会严重影响球拍的使用寿命,也会使球拍丧失保修资格。一般业余爱好者应该根据自己的能力或参考比较专业的建议来选择适合自己的拍线拉力。
SHBC(上海羽毛球网)推荐拍线拉力:
初学者 男性20/21 女性19/20,中级水平 男性23/24 女性22/23,高级水平 男性25+ 女性 24+
知名羽毛球拍线品牌有:ASHAWAY(雅沙维),GOSEN(高神), MIZUNO(美津浓), YONEX(尤尼克斯)
品牌简介:
YONEX
BG65,高档拍线中最耐用的一根,同类产品至今无人能出其右。进攻性能良好。控球型球员也可采用。吸震能力始终。0.70毫米的线径
BG65TI,在BG65的基础上加TI增加了弹性,牺牲了一部分的耐用性。击球音略好。提高了线的强度,更适合暴力攻击型选手。吸震能力与65相同。0.70毫米的线径
BG70PRO,与65TI弹性相仿,击球声音与65类似。也很耐用。因为外皮采用了卵形纤维,所以耐拉能力极强,保持拍线拉力的性能非常好,但因吸震性能一般而使手感略微偏硬。0.70毫米的线径。
BG80,采用卵形纤维外皮,内包VECTRAN纤维,具有很高的反弹性和良好的爆发力,适合大力抽球,深受双打选手喜爱。耐用度一般,但是声音很好。0.68毫米线径。为了保证VECTRAN纤维的效果,最好降低拉力1-2磅使用。
BG85,控球线,表皮非常粗糙,只有0.67毫米线径。耐用性一般,吸震性能很好,手感柔软。击球音很好听。弹性超过BG80。因此线同样采用了VECTRAN纤维而线径更细,所以要降低拉力2-3磅使用。
BG68TI,综合性能非常优异的一根球线。各方面的能力都比较出色。是目前市场上可见的弹性最高的YONEX拍线。击球音清脆响亮,吸震性控制力都很出色。0.68毫米线径。深受业余球友的欢迎。耐用性一般,冬天低温很容易变脆断线,尽量避免低温使用。此线弹性很大,但是保持张力性能很一般,掉磅较快。为了保持一定的张力,需频繁更换。印尼双打名将西吉特的选择。
ASHAWAY 傲狮威
ASHAWAY曾经叫做雅沙维,这是中国总代所用的名字且已经注册了中文商标。但随着ASHAWAY公司亲自进入中国市场,原雅沙维品牌持有人拒绝放弃ASHAWAY产品及商标带给其的经济效益,将产品转为由其他厂家OEM。美国ASHAWAY公司只好责令其禁止使用ASHAWAY商标但对其中文名称无能为力。所以,“雅沙维”这个品牌已经不再是美国原产产品了。而真正的ASHAWAY中文名称已经改为傲狮威,习惯使用ASHAWAY产品的人购买时要注意一下品名和商标。
来自:http://www.shbc.cn/dispbbs.asp?boardID=307&ID=40224&page=1
所有的羽球爱好者都要面对一个相同的问题:我到底该买什么样的器材?为什么要买这个器材?这个器材对这项运动有多重要?下面我按照我个人认为的商品重要性进行了排列并做了简单的说明。希望这篇羽球用品选购指南能对所有正在犹豫不决的羽球爱好者有所帮助。
因水平有限,未能列出全部羽球用品。日后会逐渐添加。
羽毛球鞋:
很多人都没有认识到,一双好的羽毛球鞋对这项运动到底有多重要。随着球员在场上不停的快速移动,双脚要承受平时几倍的压力,伴随着每一次的启动,球员的双脚要作出扭,转,跳跃,急停,换向等等极高机动性的动作。这所有的一切都是靠羽毛球鞋的支撑才得以完成。
有别于普通运动鞋,羽毛球鞋是专为羽毛球运动特点而设计的。较薄的鞋底,很强的侧面支撑能力使双脚尽可能的靠近地面。这种设计在保证了允许踝关节快速的弯曲,双脚运动方向频繁转变的前提下尽可能低的降低了双脚受伤的可能性。轻量化的设计可以使双脚移动速度更快,专门的鞋底材料可以保证双脚在球场上的抓地力。
在羽毛球运动中,我们对下半身所施加的压力可以由一双羽毛球鞋清晰的显现出来。一双高质量的羽毛球鞋,在高手的使用下只有3-6个月的有效寿命。此时的羽毛球鞋鞋底已经快要磨穿了,鞋垫也会磨透,高强度人造材料的鞋面,也会因为运动中所承受巨大压力而开裂,破损。
选择羽毛球鞋一定要仔细,确保选择了一双适合双脚形状及尺寸的,穿着舒适的球鞋。
选择羽毛球鞋一定要比平常的鞋略大一点,不然跑动起来脚会包的很难受。
羽毛球鞋选择时应注意前松侧紧。
侧紧,为了避免侧滑,防止扭伤;前松,上网时可起到缓冲作用。
一般来说,羽毛球鞋要比平常的鞋大半码到一码,不过记得要穿专业的羽毛球袜,一双袜子半码,留半码给脚,刚刚好。
激烈的羽毛球运动中双脚的血液循环要比平时快的多,双脚充血也较平常严重,别说小了,就是试穿的时候正好合适下场以后都有可能觉得紧。
很多羽毛球爱好者总是觉得鞋买大了一码以后会非常别扭,每次买鞋都要考虑买正好甚至略小的,这是非常错误的。
1、我们平常不会穿专门的羽毛球袜去试鞋,试出来的感觉本身就不够准确。
2、鞋头不宽松的话,上网时极有可能会顶到最长的脚趾,严重的还会使脚趾甲受损。
球鞋尺寸大了,有可能走路会觉得别扭,甚至会出现上楼梯踢台阶的现象,这是因为我们的大脑已经习惯了鞋+脚的尺寸,在做上楼梯这个动作时,大脑发令总是以我们常用鞋码的尺寸来作为抬腿出脚距离的标准,这是为了最大限度节省体力,是本能。
但羽毛球步法和上楼梯完全不是一回事,与平时走路也完全不是一回事。这也是为什么尽量到场馆以后才换鞋的另一个原因。
注意不要穿厚底鞋(如篮球鞋)上场打羽毛球。厚底鞋会把脚抬离地面过高,导致严重的意外扭伤,甚至会带来后遗症,如习惯性扭伤等。这种运动伤害会在今后的很长一段时间影响你的羽毛球水平。
常见的不错的羽毛球鞋品牌有MIZUNO,YONEX。国产品牌如VICTOR,KASON等因技术原因暂时无法与国外品牌抗衡,但因其价格低廉,也是不错的选择。
YONEX羽毛球鞋产品特点简介:
YONEX的高级球鞋都带有专利POWER CUSHION动力垫。Power cushion的减震能力和弹性极好,一个生鸡蛋从两米高度下落掉在动力垫上不会损坏,还可以跳起一米。
99LOW 鞋面由柔韧的高级PU合成皮革加双层透气网制成。超轻量EVA中底(GLITE)带有专利POWER CUSHION材料制成的动力垫,鞋垫下部带有TPU稳定片防止足弓变形。高强度石墨连接桥,外装爪型TPU支撑片(lateral claw) 鞋底是防滑耐磨的橡胶大底。
99M 同上
89MG 高级PU合成皮革,聚酯透气网,护踝柔韧合成皮。EVA中底。耐磨,防滑大底。立体石墨支撑片。防扭系统。
56C 柔韧PU(合成皮),脚跟动力垫(POWER CUSHIO),EVA中底。耐磨橡胶外底。
06年新款的90M 90L采用了圆鞋底,这种设计可使脚底受力更均匀,减轻脚底局部区域的压力,使得穿着,使用更舒适。新品价格略高,但还是值得一试。
来自:http://www.shbc.cn/dispbbs.asp?boardID=307&ID=40224&page=1
2008 年 3 月 20 日
Bilal Siddiqui 将继续在他的 系列文章 中展示如何使用 Acegi 保护 Java™Server Faces (JSF) 应用程序。配置 JSF 和 Acegi,让它们在 servlet 容器中协作,探索 JSF 和 Acegi 组件如何彼此协作。
本 系列 的前 3 部分讨论了如何使用 Acegi Security System 保护 Java 企业应用程序:
- 第 1 部分 解释了如何使用 Acegi 的内置过滤器实现一个简单的基于 URL 的安全系统。
- 第 2 部分 展示了如何编写访问控制策略、将其存储在 LDAP 目录服务器中,以及配置 Acegi 与 LDAP 服务器交互,从而实现访问控制策略。
- 第 3 部分 展示了如何在企业应用程序中使用 Acegi 保护对 Java 类实例的访问。
第 4 部分将讨论如何使用 Acegi 保护在 servlet 容器中运行的 JavaServer Faces (JSF) 应用程序。本文首先解释 Acegi 针对此目标提供的特性,并澄清一些关于使用 Acegi 和 JSF 的常见误解。然后提供一个简单的 web.xml 文件,可以用来部署 Acegi,从而保护 JSF 应用程序。然后深入探讨 Acegi 和 JSF 组件,了解在部署 web.xml 文件和用户访问 JSF 应用程序时所发生的事件。本文最后提供了一个由 Acegi 保护的示例 JSF 应用程序。
无需编写 Java 代码即可添加安全性
回顾一下本系列的第一个示例 Acegi 应用程序(请参阅 第 1 部分 中的 “一个简单 Acegi 应用程序” 一节)。该应用程序使用 Acegi 提供了以下安全特性:
- 当一个未经验证的用户试图访问受保护的资源时,提供一个登录页面。
- 将授权用户直接重定向到所需的受保护资源。
- 如果用户未被授权访问受保护资源,提供一个访问拒绝页面。
回想一下,您无需编写任何 Java 代码就能获得这些特性。只需要对 Acegi 进行配置。同样,在 JSF 应用程序中,无需编写任何 Java 代码,也应该能够从 Acegi 实现相同的特性。
澄清误解
其他一些作者似乎认为将 Acegi 与 JSF 集成需要 JSF 应用程序提供登录页面(参见 参考资料)。这种观点并不正确。在需要时提供登录页面,这是 Acegi 的职责。确保登录页面在安全会话期间只出现一次,这也是 Acegi 的职责。然后,经过身份验证和授权的用户可以访问一个受保护资源,无需重复执行登录过程。
如果使用 JSF 提供登录页面,将会发生两个主要的问题:
- 当需要时,没有利用 Acegi 的功能提供登录页面。必须编写 Java 代码实现所有逻辑来提供登录页面。
- 至少需要编写一些 Java 代码将用户凭证(用户名和密码)从 JSF 的登录页面移交到 Acegi。
Acegi 的目的是避免编写 Java 安全代码。如果使用 JSF 提供登录页面,则没有实现这一用途,并且会引发一系列其他 JSF-Acegi 集成问题,所有这些问题都源于 “Acegi 是用来提供可配置安全性” 这一事实。如果试图使用 JSF 来完成 Acegi 的工作,将会遇到麻烦。
本文余下部分将解释并演示独立于 Acegi 的 JSF 应用程序开发,并在稍后配置 Acegi 以保护 JSF 应用程序 — 无需编写任何 Java 代码。首先看一下 web.xml 文件,可以部署该文件保护 JSF 应用程序。
部署 Acegi 保护 JSF 应用程序
清单 1 展示了一个 web.xml 文件(通常称为部署描述符),可以使用这个文件部署 Acegi,从而保护运行在 servlet 容器(比如 Apache Tomcat)中的 JSF 应用程序:
清单 1. 用于部署 Acegi 和 servlet 容器中的 JSF 的 web.xml 文件
<?xml version="1.0"?>
<!DOCTYPE web-app PUBLIC
"-//Sun Microsystems, Inc.//DTD Web Application 2.3//EN"
"http://java.sun.com/dtd/web-app_2_3.dtd">
<web-app>
<context-param>
<param-name>contextConfigLocation</param-name>
<param-value>/WEB-INF/acegi-config.xml</param-value>
</context-param>
<context-param>
<param-name>javax.faces.STATE_SAVING_METHOD</param-name>
<param-value>server</param-value>
</context-param>
<context-param>
<param-name>javax.faces.CONFIG_FILES</param-name>
<param-value>/WEB-INF/faces-config.xml</param-value>
</context-param>
<listener>
<listener-class>
org.springframework.web.context.ContextLoaderListener
</listener-class>
</listener>
<listener>
<listener-class>
com.sun.faces.config.ConfigureListener
</listener-class>
</listener>
<!-- Faces Servlet -->
<servlet>
<servlet-name>Faces Servlet</servlet-name>
<servlet-class>javax.faces.webapp.FacesServlet</servlet-class>
<load-on-startup> 1 </load-on-startup>
</servlet>
<!-- Faces Servlet Mapping -->
<servlet-mapping>
<servlet-name>Faces Servlet</servlet-name>
<url-pattern>*.faces</url-pattern>
</servlet-mapping>
<!-- Acegi filter configuration -->
<filter>
<filter-name>Acegi Filter Chain Proxy</filter-name>
<filter-class>
org.acegisecurity.util.FilterToBeanProxy
</filter-class>
<init-param>
<param-name>targetClass</param-name>
<param-value>
org.acegisecurity.util.FilterChainProxy
</param-value>
</init-param>
</filter>
<!-- Acegi Filter Mapping -->
<filter-mapping>
<filter-name>Acegi Filter Chain Proxy</filter-name>
<url-pattern>/*</url-pattern>
</filter-mapping>
</web-app>
|
注意,清单 1 包含以下标记:
- 3 个
<context-param>
标记
- 2 个
<listener>
标记
- 1 个
<filter>
标记
- 1 个
<servlet>
标记
- 1 个
<servlet-mapping>
标记
- 1 个
<filter-mapping>
标记
阅读该文件,了解每个标记在 JSF-Acegi 应用程序中的用途。
向 Acegi 和 JSF 提供上下文参数
清单 1 中的每个 <context-param>
标记定义一个参数,供 Acegi 或 JSF 在启动或执行期间使用。第一个参数 — contextConfigLocation
— 定义 Acegi 的 XML 配置文件的位置。
JSF 需要 javax.faces.STATE_SAVING_METHOD
和 javax.faces.CONFIG_FILES
参数。javax.faces.STATE_SAVING_METHOD
参数指定希望在客户机还是服务器上存储 JSF 页面-视图状态。Sun 的参考实现的默认行为是将 JSF 视图存储在服务器上。
javax.faces.CONFIG_FILES
参数指定 JSF 需要的配置文件的位置。JSF 配置文件的详细信息不属于本文讨论的范围(参见 参考资料,获取涉及该主题的资源链接)。
为 Acegi 和 JSF 配置侦听器
现在看一下 清单 1 中的 2 个 <listener>
标记。<listener>
标记定义侦听器类,侦听器类侦听并处理 JSP 或 servlet 应用程序启动和执行期间发生的事件。例如:
- 启动 JSP 或 servlet 应用程序时,servlet 容器创建一个新的 servlet 上下文。每当 JSP 或 servlet 应用程序启动时,就会触发此事件。
- servlet 容器创建一个新的 servlet 请求对象。每当容器从客户机收到一个 HTTP 请求时,此事件就会发生。
- 建立一个新的 HTTP 会话。当请求客户机建立一个与 servlet 容器的会话时,此事件就会发生。
- 一个新属性被添加到 servlet 上下文、servlet 请求和 HTTP 会话对象。
- servlet 上下文、servlet 请求或 HTTP 会话对象的一个现有属性被修改或删除。
<listener>
标记就像一种可扩展性机制,允许在 servlet 容器内部运行的应用程序协同某些事件进行处理。servlet 规范定义了侦听器类为处理事件而实现的一些接口。
例如,Spring Framework 实现一个 javax.servlet.ServletContextListener
servlet 接口。实现此接口的 spring 类是 org.springframework.web.context.ContextLoaderListener
。注意,这是 清单 1 的第一个 <listener>
标记中的侦听器类。
类似地,JSF 实现一个 com.sun.faces.config.ConfigureListener
类,该类实现一些事件-侦听接口。可以在 清单 1 的第二个 <listener>
标记中找到 ConfigureListener
类。
本文稍后将解释不同的事件-侦听器接口,以及 Acegi 和 JSF 事件-侦听器类内部执行的处理(请参阅 “启动 JSF-Acegi 应用程序” 和 “处理对受 Acegi 保护的 JSF 页面的请求”)。
配置和映射 servlet 过滤器
现在看一下 清单 1 中的 <filter>
标记。在请求的 servlet 处理传入的请求之前,servlet 应用程序使用过滤器对其进行预处理。在请求执行之前,Acegi 使用 servlet 过滤器对用户进行身份验证。
请注意 清单 1 中的 <filter>
标记,它的 <filter-class>
子标记指定一个 org.acegisecurity.util.FilterToBeanProxy
类。FilterToBeanProxy
类是 Acegi 的一部分。此类实现一个 javax.servlet.Filter
接口,该接口是 servlet 应用程序的一部分。javax.servlet.Filter
接口有一个 doFilter()
方法,servlet 容器在收到请求时调用该方法。
还需注意,清单 1 的 <filter>
标记有另一个子标记 <init-param>
。<init-param>
标记指定实例化 FilterToBeanProxy
类所需的参数。可以从 清单 1 中看出,FilterToBeanProxy
类只需要一个参数,该参数是 FilterChainProxy
类的一个对象。FilterChainProxy
类表示 第 1 部分 1 中讨论的整个 Acegi 过滤器链(请参阅 “安全过滤器” 小节)。FilterToBeanProxy
类的 doFilter()
方法使用 FilterChainProxy
类执行 Acegi 的安全过滤器链。
清单 1 中的 <filter-mapping>
标记指定调用 Acegi 的 FilterToBeanProxy
的请求 URL。我已经将所有的 JSF 页面映射到 Acegi 的 FilterToBeanProxy
。这意味着只要用户试图访问 JSF 页面,FilterChainProxy
doFilter()
方法就会自动获得控制权。
配置 JSF servlet
web.xml 文件中的 <servlet>
标记指定希望从特定 URl 调用的 servlet(在本例中是一个 JSF servlet)。<servlet-mapping>
标记定义该 URL。几乎所有的 JSP 或 servlet 应用程序都包含这两个标记,所以无需再作讨论(参见 参考资料,获取讨论 servlet 编程的资源链接)。
现在,您已经看到,web.xml 文件要部署 Acegi 以保护 JSF 应用程序所需的所有标记。您已经了解了侦听器、过滤器和 servlet 如何相互协作。从这里的讨论中可以看出,如果在 servlet 容器中部署 清单 1 中的 web.xml 文件,Acegi 和 JSF 都试图在两种情形下进行一些处理:
- 当启动应用程序时
- 当应用程序收到对 JSF 页面的请求时
接下来的两节解释每种情况中发生的一系列事件。
启动 JSF-Acegi 应用程序
图 1 展示了在 JSF-Acegi 应用程序启动时发生的事件顺序:
图 1. JSF-Acegi 应用程序启动时发生的事件顺序
详细来讲,图 1 显示的事件顺序如下所示:
- servlet 容器实例化在 web.xml 文件中配置的所有侦听器。
- servlet 容器将 Acegi 的
ContextLoaderListener
注册为一个侦听器类,该类实现 javax.servlet.ServletContextListener
接口。ServletContextListener
接口包含两个重要方法:contextInitialized()
和 contextDestroyed()
:
contextInitialized()
方法在初始化 servlet 上下文时获得控制权。
- 类似地,当应用程序退出时,
contextDestroyed()
方法会被调用,并消除 servlet 上下文。
- servlet 容器将 JSF 的
ConfigureListener
注册为另一个侦听器。JSF 的 ConfigureListener
实现许多侦听器接口,比如 ServletContextListener
、 ServletContextAttributeListener
、 ServletRequestListener
,以及 ServletRequestAttributeListener
。您已经看到了 ServletContextListener
接口的方法。余下的接口是:
ServletContextAttributeListener
,它包含 3 种方法:attributeAdded()
attributeRemoved()
和 attributeReplaced()
。这 3 种方法分别在某个属性被添加到 servlet 上下文、被从 servlet 上下文删除、被新属性取代时获得控制权。attributeReplaced()
方法在 处理对受 Acegi 保护的 JSF 页面的请求 小节的第 8 步中获得控制权。
ServletRequestListener
中包含的方法在创建或删除新的 servlet 请求对象时获得控制权。servlet 请求方法表示并包装来自用户的请求。
ServletRequestAttributeListener
中包含的方法在添加、删除或替换某个请求对象的属性时获得控制权。本文稍后将讨论在 处理对受 Acegi 保护的 JSF 页面的请求 小节的第 3 步中创建一个新的请求对象时,JSF 的 ConfigureListener
执行的处理。
- servlet 容器创建一个 servlet 上下文对象,该对象封装应用程序资源(比如 JSP 页面、Java 类和应用程序初始化参数),并允许整个应用程序访问这些资源。JSF-Acegi 应用程序的所有其他组件(侦听器、过滤器,以及 servlet)在 servlet 上下文对象中以属性的形式存储与应用程序资源相关的信息。
- servlet 容器通知 Acegi 的
ContextLoaderListener
,servlet 上下文是通过调用 ContextLoaderListener
的 contextInitializated()
方法初始化的。
contextInitialized()
方法解析 Acegi 的配置文件,为 JSF-Acegi 应用程序创建 Web 应用程序上下文,以及实例化所有的安全过滤器和在 Acegi 配置文件中配置的 Jave bean。在以后 JSF 应用程序收到来自客户机的请求时,这些过滤器对象将会用于身份验证和授权(参阅 第 3 部分 中关于 Web 应用程序上下文创建的讨论和图 1)。
- servlet 容器通知 JSF 的
ConfigureListener
,servlet 上下文是通过调用 contextInitialized()
方法初始化的。
contextInitialized()
方法检查在 JSF 配置文件中配置的所有 JSF 托管 bean,确保 Java 类与每个 bean 并存。
- servlet 容器检查 web.xml 文件中任何配置的过滤器。例如,清单 1 中的 web.xml 文件包含一个 Acegi 过滤器
FilterToBeanProxy
,servlet 容器将其实例化、初始化并注册为一个过滤器。Acegi 现在可以对传入的请求执行身份验证和授权了。
- servlet 容器实例化 faces servlet,后者开始侦听从用户传入的请求。
下一节解释 JSF-Acegi 应用程序收到来自用户的请求时发生的一系列事件。
处理对受 Acegi 保护的 JSF 页面的请求
您已经了解了如何配置 Acegi 保护 JSF 应用程序。也看到了当启动 JSF-Acegi 应用程序时发生的一系列事件。本节描述当用户发送一个对受 Acegi 保护的 JSF 页面的请求时,JSF 和 Acegi 组件如何在 servlet 容器的框架中运行。
图 2 展示了当客户机发送一个对受 Acegi 保护的 JSF 页面的请求时,发生的事件顺序:
图 2. JSF 和 Acegi 协作提供 JSF 页面
详细来讲,图 2 展示的事件顺序如下所示:
- servlet 容器创建一个表示用户请求的 servlet 请求对象。
- 回想一下 启动 JSF-Acegi 应用程序 小节中的第 3 步,JSF 的
ConfigureListener
实现 ServletRequestListener
接口。这意味着 ConfigureListener
侦听与创建和删除 servlet 请求对象相关的事件。因此,servlet 容器调用 ConfigureListener
类的 requestInitialized()
方法。
requestInitialized()
方法准备执行请求的 JSF 生命周期。准备过程包括检查请求的 faces 上下文是否存在。faces 上下文封装与应用程序资源相关的信息。faces servlet 执行 JSF 生命周期时需要这些信息。如果此请求是新会话的第一个请求,就会缺少 faces 上下文。在这种情况下,requestInitialized()
方法创建一个新的 faces 上下文。
- servlet 容器检查用户的请求是否带有任何状态信息。如果 servlet 容器未找到状态信息,它会假设该请求是新会话的第一个请求,并为用户创建一个 HTTP 会话对象。如果 servlet 容器发现该请求包含某种状态信息(比如一个 cookie 或 URL 中的某种状态信息),它就会根据保存的会话信息恢复用户以前的会话。
- servlet 容器把请求 URL 与一个 URL 模式进行匹配,这个 URL 模式包含在配置描述符中的
<filter-mapping>
标记的 <url-pattern>
子标记中。如果请求 URL 与这个 URL 模式匹配,servlet 容器调用 Acegi 的 FilterToBeanProxy
,FilterToBeanProxy
已在 图 1 的第 9 步中被注册为一个 servlet 过滤器。
- Acegi 的
FilterToBeanProxy
使用 FilterChainProxy
类执行 Acegi 的完整的安全过滤器链。Acegi 的过滤器自动检查第 4 步中创建的 HTTP 会话对象,以查看请求客户机是否已被验证。如果 Acegi 发现用户未被验证,它提供一个登录页面。否则,它就直接执行 第 2 部分 的 “配置拦截器” 一节中描述的授权过程。
- Acegi 使用经过验证的用户的会话信息更新 servlet 上下文。
- servlet 容器通知 JSF 的
ConfigureListener
的 attributeReplaced()
方法,servlet 上下文已被更新。ConfigureListener
检查是否有任何 JSF bean 被更改。如果发现任何更改,它相应地更新 faces 上下文。但是,在本例中,在身份验证过程中 Acegi 没有更改任何 JSF 托管 bean,因此在此调用期间 ConfigureListener
不进行任何处理。
- 如果授权过程成功,控制权被转移到 faces servlet,它执行 JSF 生命周期并向用户发回一个响应。
现在,您了解了 JSF 和 Acegi 如何协作提供 JSF 请求,接下来看一下完成后的 JSF 和 Acegi。
示例 JSF-Acegi 应用程序
本文的下载部分(参见 下载)包含一个示例 JSF-Acegi 应用程序 JSFAcegiSample,演示了 Acegi 与 JSF 的简单集成。示例应用程序使用 清单 1 中的 web.xml。
要部署示例应用程序,执行 第 1 部分 的 “部署并运行应用程序” 一节中的两个步骤。还需要从 Sun 的 JSF 站点(参见 参考资料)下载并解压 jsf-1_1_01.zip。将 jsf-1.1.X.zip 中的所有文件复制到 JSFAcegiSample 应用程序的 WEB-INF/lib 文件夹中。
从浏览器访问 http://localhost:8080/JSFAcegiSample,可以调用示例应用程序。JSFAcegiSample 应用程序显示一个索引页面和一个登录页面,索引页面中包含受保护资源的链接。所有受保护页面都是使用 JSF 组件开发的,而 Acegi 提供登录页面并执行身份验证和授权。
结束语
在本文中,了解了如何配置 Acegi 以保护 JSF 应用程序。还详细了解了 JSF 和 Acegi 组件如何在一个 servlet 容器的框架中协作。最后,尝试运行了一个示例 JSF-Acegi 应用程序。
关于实现 JSF 应用程序的 Acegi 安全性,还涉及到更多内容。本系列的下一篇文章将演示如何使用 Acegi 保护对 JSF 的托管 bean 的访问。
来自: http://www.cnblogs.com/amboyna/archive/2008/03/25/1122089.html
2007 年 10 月 18 日
本文是 Acegi Security Systerm 介绍的最后一部分(共三部分),Bilal Siddiqui 将向您介绍如何保护对 Java 类实例的访问,从而结束本系列文章。通过本文了解为何需要对 Java™ 类的访问进行保护,Spring 如何创建和保护对 Java 类实例的访问以及如何对 Acegi 进行配置以实现 Java 应用程序的类安全性。
这期共分三部分的系列文章介绍了如何使用 Acegi 安全系统保护 Java 企业应用程序。系列文章的 第 1 部分 简单介绍了 Acegi 并解释如何使用其内置的安全过滤器实现一个简单的、基于 URL 的安全系统。第 2 部分 介绍了如何编写访问控制策略并将其保存到一个 LDAP 目录服务器,以及如何配置 Acegi 来与目录服务器进行交互,从而实现访问控制策略。第 3 部分(也是本系列的最后一篇文章)将演示如何在企业应用程序中使用 Acegi 保护对 Java 类实例的访问。
首先我将介绍何时需要对 Java 类访问进行保护,包括文中引用的两个典型企业应用程序场景。之后,我将解释 Spring 的反转控制(IOC)框架如何创建可从 JSP 或 servlet 访问的 Java 类实例。我还将介绍有关 bean 代理 的重要概念,Spring 正是使用它过滤对 Java 类的访问。最后,我将介绍如何对 Acegi 的方法安全性拦截器进行配置以控制对 Java 类的访问。我将对 第 2 部分 中的示例程序进行增强,为实现安全的 Java 对象提供支持,从而结束本系列的最后一篇文章。
由于本文的讨论构建在本系列前两部分的内容之上,因此会经常引用到 第 1 部分 和 第 2 部分 中的讨论和示例。因此,在继续阅读本文之前,在其他浏览器窗口中打开前两期文章将有助于理解本文内容。
保护 Java 类的用例
您可能还记得,我曾在本系列的开头部分简单介绍了 企业应用程序安全性。在那次讨论中我曾提到过一种场景,其中 URL 安全性并不能完全满足这种场景的安全需求:
假设有这样一个 PDF 文档,其中包含了某制造业公司生产的特定产品的数据。文档的一部分包含了设计数据,将由公司设计部分进行编辑和更新。文档另一部分包含生产经理将使用到的生产数据。对于此类场景,需要实现更加细粒度的安全性,对文档的不同部分应用不同的访问权限。
在继续阅读之前,请考虑更多的应用程序场景,除了实现 URL 安全性以外,这些场景还要求您对单独的类访问进行保护。
业务自动化
业务自动化应用程序中的工作流由多个流程组成。例如,病理学实验室中执行血液测试的工作流由若干个步骤组成,其中每个步骤可看作一个业务流程:
- 工作人员从病人处采集血液样本并为其分配一个 ID。
- 实验室技术人员对样本进行必要的测试并准备测试结果。
- 由具备相应资格的病理学专家根据测试结果编写测试报告。
很明显,每个流程分别由单独的授权用户执行。未授权的用户则无权执行流程。例如,实验室研究人员只负责准备试验结果,而无权编写测试报告。
几乎所有的业务自动化应用程序都普遍使用授权的业务流程。通常,每个业务流程被实现为一个 Java 类,并且需要使用合适的访问控制策略对所有类实施保护。
企业对企业(Business-to-business)集成
Business-to-business (B2B) 集成指一种常见的场景,其中的两个企业实体需要彼此公开各自的特定功能。例如,宾馆可能向旅游公司公开其房间预订功能,而后者使用该功能为游客预订空闲的房间。作为合作伙伴的旅游公司可能具有一个特定的订房率。在这个场景中,宾馆的订房系统必须先对旅游公司进行身份验证,然后才能允许他们访问所选择的类,以便按照特定的订房率进行房间预订。
使用 Spring 创建 Java 对象
现在您已经了解了对 Java 类示例的访问进行保护的重要性。在介绍能够实现更高级安全性的 Acegi 新功能之前,我将引导您回顾 Spring 框架的几个关键特性,您需要了解这些内容才能继续后文的示例。
首先对一些 Java 类进行配置并执行实例化。第 1 部分 曾介绍过,Java 类在 Spring 的 XML 配置文件中进行配置。在 Spring 配置文件中配置 Java 类的过程与 Acegi 过滤器的配置过程完全相同,因此这里不多做介绍。相反,我们将查看清单 1,它展示了名为 publicCatalog
的 bean 的配置:
清单 1. Acegi XML 配置文件
<beans>
<bean id="publicCatalog"
class="com.catalog.PublicCatalog" />
<!--Other bean tags -->
<beans>
|
了解 Spring 的 IOC 框架如何从 XML 配置文件读取 Java 类信息以及如何进行实例化,这一点非常重要。您可能还记得,我在系列文章的 第 1 部分 中使用一个 web.xml 文件配置 <listener>
标记,它指向名为 ContextLoaderListener
的类。ContextLoaderListener
装载 Spring 的 IOC 框架并创建 Java 对象。您可以参考 第 1 部分的清单 8 查看全部内容。图 1 也对此进行了描述:
图 1. 装载 Spring 的 IOC 框架并创建 Java 对象
现在我们将详细讨论这些步骤:
- 当初始化 Acegi 应用程序时,servlet 容器(本例中为 Apache Tomcat)创建了一个 servlet 上下文,其中保存了有关应用程序资源的信息,例如 JSP 页面和类。
- servlet 容器通知
ContextLoaderListener
类应用程序正在启动。
ContextLoaderListener
类创建一个 Web 应用程序上下文以保存应用程序中特定于 Spring 的资源信息。借助 Spring 的 IOC 框架,您可以装载自己的自定义应用程序上下文。要创建应用程序上下文,将使用名为 ContextLoader
的上下文装载器类装载应用程序上下文。
- 如果应用程序不需要定义自己的应用程序上下文,则可以使用名为
XMLWebApplicationContext
的类,它是 Spring 框架的一部分并提供可处理 Spring XML 配置文件的功能。Acegi 应用程序使用的是 Spring 的 XML 配置文件,因此本文仅讨论由 XMLWebApplicationContext
类表示的应用程序上下文。在本例中,上下文装载器对 XMLWebApplicationContext
类进行实例化,后者表示您的 Acegi 应用程序的应用程序上下文。上下文装载器还在 Web 应用程序上下文中设置 servlet 上下文(于步骤 1 中创建)的引用。
XMLWebApplicationContext
类对 XML 配置文件进行解析,获得关于 Java 类的信息并将信息装载到其他内部对象中。
XMLWebApplicationContext
类对 XML 配置文件中指定的所有 Java 类进行实例化。XMLWebApplicationContext
类检查 XML 配置文件中经过配置的 Java bean 是否依赖其他的 Java 对象。如果是的话,XMLWebApplicationContext
类将首先对其他 bean 所依赖的 bean 进行实例化。通过这种方式,XMLWebApplicationContext
类创建了 XML 配置文件中定义的所有 bean 的实例。(注意,步骤 6 假定 XML 配置文件中所有 bean 都不要进行保护,稍后一节将介绍步骤 5 和步骤 6 之间执行的额外步骤,从而保护对此处创建的 Java bean 的访问)。
XMLWebApplicationContext
类将所有 bean 保存在一个数组中。
您现在已了解到如何从 XML 配置文件中装载 bean 定义并创建 Java 类的实例。接下来,我将向您介绍 Spring bean 代理并解释它对于保护 Java 类实例的重要性。
使用 bean 代理
上一节讨论了 Spring 的 IOC 框架对 Java 对象进行实例化。要保护对 Java 对象的访问,Spring 的 IOC 框架使用了 bean 代理 的概念。本节首先介绍如何配置 bean 代理,然后演示 Spring 的 IOC 框架如何创建代理对象。
为 Java 对象配置代理
如果希望创建 bean 代理,Spring IOC 框架要求您对代理创建器 bean 的实例进行配置。Spring 的 IOC 框架使用代理创建器创建代理对象。清单 2 为代理创建器 bean 的配置文件,用于保护名为 privateCatalog
的 Java 对象:
清单 2. 代理 bean 配置
<bean id="proxyCreator"
class="org.springframework.aop.framework.autoproxy.BeanNameAutoProxyCreator">
<property name="beanNames">
<list>
<value>privateCatalog</value>
<!--Names of other beans to be proxied -->
</list>
</property>
<property name="interceptorNames">
<list>
<value>privateCatalogSecurityInterceptor</value>
</list>
</property>
</bean>
|
如清单 2 所示,<bean>
标记具有一个 class
属性,其值为 org.springframework.aop.framework.autoproxy. BeanNameAutoProxyCreator
。BeanNameAutoProxyCreator
类是 Spring IOC 框架的一部分,可以自动创建 bean 代理。Spring 框架提供了 BeanPostProcessor
接口,它提供了一种可扩展机制,允许应用程序编写自己的逻辑来创建 bean 代理。Spring 的 BeanNameAutoProxyCreator
类实现了 BeanPostProcessor
接口并提供所有必需的代理创建逻辑来保护 Java 类。因此,本文中您无需实现 BeanPostProcessor
接口。
在创建 bean 代理时,BeanNameAutoProxyCreator
类为所有由 beanNames
属性定义的 bean 创建代理(参见 清单 2 中 <bean>
标记的第一个 <property>
子元素)。beanNames
属性在 <list>
标记中包含一个 bean 名称列表。在 清单 2 中,我只对希望为之创建代理的 privateCatalog
bean进行了配置。
现在查看 清单 2 中 <bean>
标记的第二个 <property>
子元素。它指定了名为 interceptorNames
的代理,它将一个或多个拦截器的名称封装起来。我将在后文详细讨论拦截器概念。现在,只需了解拦截器可以拦截用户并在用户访问 bean 之前实现访问控制策略。
现在,您已了解了如何对希望进行保护的 bean 配置代理。接下来,您将了解 Spring 的 IOC 框架如何在内部为应用程序的 bean 创建代理对象。
Spring IOC 发挥效用
在 “使用 Spring 创建 Java 对象” 的步骤 5 和步骤 6 中,您了解了 XMLWebApplicationContext
类如何从 XML 配置文件中读取 bean 定义并随后创建 bean 实例。在创建 bean 实例之前,XMLWebApplicationContext
类将检查 XML 配置文件是否包含任何代理创建器 bean(即实现 BeanPostProcessor
接口的 bean)配置。如果存在该 bean,它将要求代理创建器为您希望进行保护的 bean 创建 bean 代理。
现在考虑代理创建器如何在内部创建代理对象:
- 代理创建器(即
BeanNameAutoProxyCreator
类)装载 清单 2 中配置的 beanNames
属性文件中指定的所有 bean 名称。
- 代理创建器使用 bean 名称装载各自的 Java 类,这些类使用了每个 bean 定义的
class
属性。
- 代理创建器创建 清单 2 所示的
interceptorNames
属性中指定的拦截器的实例。
- 最后,代理创建器创建一个
Cglib2AopProxy
类的实例,将所有 bean 名称(步骤 2)和拦截器(步骤 3)传递到 Cglib2AopProxy
类。Cglib2AopProxy
类是 Spring 框架的一部分并用于生成动态代理对象。在本例中,Cglib2AopProxy
类将创建安全 bean 访问控制所需的代理对象。
Cglib2AopProxy
类实现了两个名为 AOPProxy
和 MethodInterceptor
的接口。AOPProxy
接口由 Spring 框架提供,表示您希望进行代理的实际 bean,因此它与您的 bean 公开相同的方法。MethodInterceptor
接口也源于 AOP 框架,它包含的方法可以在用户试图访问您已执行代理的 bean 时接受控制权。这意味着 MethodInterceptor
接口处理来自用户的请求以访问执行过代理的 bean。由于 Cglib2AopProxy
类同时实现了 AOPProxy
和 MethodInterceptor
接口,因此它提供了完整的功能,既可以提供经过代理的 bean,也可以处理用户请求以访问代理 bean(参见 参考资料小节 中有关 AOP 的讨论文章的链接)。
执行完前面的步骤后,您现在具有了所需的代理对象。因此 XMLWebApplicationContext
类将安全 bean 的代理(而不是实际的 bean)保存在 “使用 Spring 创建 Java 对象” 的步骤 7 中的同一个数组中。
访问执行过代理的 Java 对象
在前面的几节中,您了解了 Spring 如何创建公有 bean 和私有 bean。出于本文的目的,您可将公有 bean 视为使用代理保护的不安全的私有 bean。现在我们来看一下客户机应用程序为访问公有 bean 和私有 bean 而必须遵循的一系列步骤。
清单 3 展示了 publicCatalog
和 privateCatalog
两个 bean 的 XML 配置。publicCatalog
bean 意味着公共访问,因此不需要使用 bean 代理。privateCatalog
bean 意味着只能由指定用户访问,因此必须加以保护。我在清单 3 中包含了 privateCatalog
bean 的 bean 代理配置:
清单 3. publicCatalog 和 privateCatalog bean 的 XML 配置
<beans>
<bean id="publicCatalog" class="sample.PublicCatalog"/>
<bean id="privateCatalog" class="sample.PrivateCatalog"/>
<!-- proxy configuration for privateCatalog bean -->
<bean id="proxyCreator"
class="org.springframework.aop.framework.autoproxy.BeanNameAutoProxyCreator">
<property name="beanNames">
<list>
<value>privateCatalog</value>
<!--Names of other beans to be proxied -->
</list>
</property>
<property name="interceptorNames">
<list>
<value>privateCatalogSecurityInterceptor</value>
</list>
</property>
</bean>
<beans>
|
应用程序可以使用清单 4 中的代码访问清单 3 中配置的 publicCatalog
和 privateCatalog
Java bean。注意,清单 4 中显示的 Java 代码可位于 JSP 页面或位于服务器端 Java 应用程序的 bean 中。
清单 4. 访问安全和不安全 Java bean 的客户机应用程序代码
//Step 1: Fetching an instance of the application context
XMLWebApplicationContext applicationCtx =
WebApplicationContextUtils.getWebApplicationContext(
this.getServletConfig().getServletContext());
//Step 2: Fetching an insecure bean from the application context
PublicCatalog publicCatalog =
(PublicCatalog) applicationCtx.getBean("publicCatalog");
//Step 3: Calling a method of the insecure bean
String publicData = publicCatalog.getData();
//Step 4: Fetching a secure bean from the application context
PrivateCatalog privateCatalog =
(PrivateCatalog) applicationCtx.getBean("privateCatalog");
//Step 5: Calling a method of the secure bean
String privateData = privateCatalog.getData();
|
下面将进一步讨论清单 4 中的步骤:
- 步骤 1:取回一个应用程序上下文实例
当应用程序希望访问 XML 配置文件中配置的 Java bean 时,它必须取回您在 “使用 Spring 创建 Java 对象” 的步骤 4 中见到的 XMLWebApplicationContext
对象。XMLWebApplicationContext
对象包含对 XML 配置文件配置的所有 Java beans 的引用。
- 步骤 2:从应用程序上下文中取回不安全的 bean
您现在具有一个对 XMLWebApplicationContext
对象的引用。XMLWebApplicationContext
类公开了一个 getBean()
方法,它包含 bean 的名称并在数组中查找 “使用 Spring 创建 Java 对象” 步骤 7 中准备的 bean。在本例中,该 bean 为 publicCatalog
(未执行过代理),因此 XMLWebApplicationContext
将返回实际的 bean。
- 步骤 3:调用不安全 bean 的方法
现在您可以调用步骤 2 中获得的 publicCatalog
bean 的任何方法。例如,清单 4 显示的 getData()
方法调用的执行没有应用任何访问控制并向应用程序返回类别数据。
- 步骤 4:从应用程序上下文取回安全 bean
安全 bean 与不安全 bean 的取回方式类似,惟一区别是:当您通过调用 getBean()
方法尝试取回安全 bean 时,您将获得安全对象的代理而不是实际的对象。该代理就是我在 “Spring IOC 发挥效用” 步骤 4 中解释的由 Spring 框架创建的同一个对象。
- 步骤 5:调用安全 bean 的方法
当调用安全 bean 的方法时,您在 步骤 4 中获得的代理对象将一个方法调用请求分配给拦截器。拦截器将检查试图访问方法的用户是否具有相应的访问权,从而处理方法调用请求。
您现在应该对 Spring 框架如何创建 Java 对象以及客户机应用程序如何与之交互有了清晰的了解。了解了这些内容后,就更加容易理解并利用 Acegi 的方法安全性拦截器,下一节将具体介绍该主题。
配置 Acegi 的方法安全性拦截器
只要应用程序试图访问由 Acegi 安全系统保护的 bean 方法,请求将被自动传递到 Acegi 的方法安全性拦截器。方法安全性拦截器的作用就是控制对安全 Java bean 的方法的访问。拦截器使用 Acegi 的身份验证和授权框架确认用户是否具有权利调用安全 Java bean 的方法,然后相应地作出响应。
清单 5 展示 Acegi 的方法安全性拦截器的示例配置:
清单 5. Acegi 的方法安全性拦截器的示例配置
<bean id="privateCatalogSecurityInterceptor"
class="org.acegisecurity.intercept.method.aopalliance.MethodSecurityInterceptor">
<property name="authenticationManager">
<ref bean="authenticationManager"/>
</property>
<property name="accessDecisionManager">
<ref bean="accessDecisionManager"/>
</property>
<property name="objectDefinitionSource">
<value>
sample.PrivateCatalog.getData=ROLE_HEAD_OF_ENGINEERING
<!-- Roles required by other beans -->
</value>
</property>
</bean>
|
清单 5 所示的拦截器配置包含三个需要进行配置的属性,可以保护对 Java bean 的访问:authenticationManager
、accessDecisionManager
和 objectDefinitionSource
。
回忆一下,您在本系列第 1 部分的 配置身份验证处理过滤器 中曾对 authenticationManager
属性进行了配置。authenticationManager
属性的作用是对用户进行身份验证。
您在本系列的第二篇文章中了解了 accessDecisionManager 属性。这个访问决策管理器负责制定授权决策。在允许对一个安全 bean 进行访问之前,方法安全拦截器使用 authenticationManager
和 accessDecisionManager
属性对用户进行身份验证和授权。
现在查看 清单 5 中配置的 objectDefinitionSource
属性。它类似于第 1 部分中出现的 objectDefinitionSource 属性。以前的 objectDefinitionSource 包含类似于 /protected/*
和 /**
这样的 URL,清单 5 中的 objectDefinitionSource
属性指定类和方法名;例如,sample.PrivateCatalog
是之前执行过代理的类的名称,而 getData
是您希望对其控制用户访问的方法的名字。
当用户访问 PrivateCatalog
bean 的 getData()
方法时,控制权将自动传递给拦截器。拦截器使用 Acegi 框架检查用户的业务角色是否为 ROLE_HEAD_OF_ENGINEERING
(特定于本文的示例)。如果是的话,拦截器将允许对 getData()
方法进行访问。如果拦截器发现用户角色不是 ROLE_HEAD_OF_ENGINEERING
,则拒绝访问。
下一节将查看一个示例 Acegi 应用程序,它将实现您目前所了解的所有概念。
示例 Acegi 应用程序
本文的 下载源代码 包含了一个名为 AcegiMethodSecurity 的示例应用程序,可按照以下方法进行配置和部署:
- 使用用户信息填充 LDAP 服务器。下载的示例应用程序 包含一个 LDIF 文件,其中含有预备装载到 LDAP 服务器的用户信息。关于如何将 LDIF 文件导入到 LDAP 服务器,请参考第 2 部分的 “填充服务器” 一节。注意,该应用程序涉及与第 2 部分相同的用户(
alice
、bob
和 specialUser
)。
- 将本文下载源代码中的 acegiMethodSecurity.war 文件复制到 Tomcat 安装目录中的 webapps 目录。
- 将 Acegi 的 jar 文件复制到示例应用程序的 WEB-INF/lib 文件夹。(有关内容请参考第 1 部分的 “部署和运行应用程序” 一节。 )
- 下载 cglib-full-2.0.2.jar 文件并将其复制到示例应用程序的 WEB-INF/lib 文件夹。
启动 Tomcat 并尝试运行示例应用程序。
运行示例应用程序
通过从浏览器访问 http://localhost:8080/acegiMethodSecurity URL 可调用示例应用程序。AcegiMethodSecurity 显示的索引页面包含两个链接(Catalog 和 Login),如图 2 所示:
图 2. 示例应用程序的主页面
当单击应用程序的 Catalog 链接时,它将要求您进行登录。如果以 alice
或 specialUser
的身份进行登录,示例应用程序将提供完整的 类别,包括公有数据和私有数据。这是因为在 清单 5 中,您对方法安全性拦截器进行了配置,允许用户使用 ROLE_HEAD_OF_ENGINEERING
访问私有类别,而 alice
和 specialUser
都具有该访问权。另一方面,如果您以 bob
的身份登录,示例应用程序将仅显示公有数据。
为通过身份验证的用户分配额外角色
本节将演示经过增强的示例应用程序。增强后的示例应用程序将展示 Acegi 如何使您能够在运行时向通过身份验证的用户临时分配额外角色。
当安全 bean(例如 清单 3 的 privateCatalog
bean)要访问一个原创资源时,您可能需要使用额外的角色。例如,您可能考虑到您的安全 bean 需要通过 Java 的 Remote Method Invocation (RMI) 框架或一个 Web 服务访问某个远程应用程序。访问安全 bean 的用户不会占用远程应用程序要求访问用户所具备的业务角色。
在本例中,Acegi 首先检查用户是否经过授权来访问安全 bean。之后,Acegi 允许用户访问安全 bean。当安全 bean 试图访问远程服务时,它需要使用额外的业务角色。如果访问安全 bean 的用户不具备额外角色,安全 bean 就不能成功访问远程服务。
run-as-replacement 机制
Acegi 框架提供了一种名为 run-as-replacement 的简单机制,允许您仅在方法调用期间为通过身份验证的用户配置一个或多个额外角色。您可以使用 run-as-replacement 机制为访问远程应用程序的安全 bean 配置额外角色。这意味着只要安全 bean 需要访问远程应用程序,Acegi 将为用户装载额外角色,从而允许安全 bean 访问远程应用程序。
清单 6 对 清单 5 中的方法安全性拦截器的配置进行了增强。增强后的配置使用了 run-as-replacement 机制。
清单 6. Acegi 方法安全性拦截器的增强配置
<bean id="privateCatalogSecurityInterceptor"
class="org.acegisecurity.intercept.method.aopalliance.MethodSecurityInterceptor">
<property name="authenticationManager">
<ref bean="authenticationManager"/>
</property>
<property name="accessDecisionManager">
<ref bean="accessDecisionManager"/>
</property>
<property name="runAsManager">
<bean id="runAsManager"
class="org.acegisecurity.runas.RunAsManagerImpl">
<property name="key">
<value>myKeyPass</value>
</property>
</bean>
</property>
<property name="objectDefinitionSource">
<value>
sample.PrivateCatalog.getData=ROLE_HEAD_OF_ENGINEERING,RUN_AS_MANAGER
</value>
</property>
</bean>
|
清单 6 使用粗体显示了两处增强(与 清单 5 相比)。第一处增强为 runAsManager
属性。runAsManager
属性的作用是向通过身份验证的用户动态添加角色。出于这个目的,runAsManager
属性包含了 RunAsManagerImpl
bean 的定义。RunAsManagerImpl
bean 只有在满足下面的条件时才可变为活跃状态:在 objectDefinitionSource
方法的角色定义中找到以 RUN_AS_
为前缀的角色。例如,PrivateCatalog.getData()
方法的角色定义(清单 6 中以粗体显示的第二处增强)具有一个 RUN_AS_MANAGER
角色。
RunAsManagerImpl
bean 包含一个名为 key
的属性,它封装的加密键用于确保只将额外的角色作为 run-as-replacement 程序的一部分生成。
当用户调用 getData()
方法时,RunAsManagerImpl
bean 变为活跃状态并创建名为 RUN_AS_MANAGER
的额外角色,从而启用 getData()
方法访问远程应用程序。
增强的方法安全性
本文的 下载源代码 包含一个名为 EnhancedAcegiMethodSecurity
的示例应用程序,它可以演示 run-as-replacement 机制和程序。该应用程序将显示一个具有 Catalog 链接的索引页面。如果单击 Catalog 链接,将要求进行登录。
登录后,EnhancedAcegiMethodSecurity
应用程序将为您提供登录用户及其角色的完整信息。例如,如果以 alice
或 specialUser
身份登录,将向您显示用户的所有业务角色,包括额外创建的临时的 RUN_AS_MANAGER
角色。
结束语
在这份共分三部分的系列文章中,我介绍了如何使用 Acegi 安全系统增强基于 URL 的安全性和基于方法的安全性。您了解了如何设计访问控制策略并将它们托管在目录服务器中,如何对 Acegi 进行配置以与目录服务器进行通信,以及如何根据托管在服务器的访问控制策略制定身份验证和授权决策。
本系列的最后一篇文章主要介绍使用基于方法的安全性保护 Java 类实例。文章还解释了 Acegi 和 Spring 如何在内部创建和代理 Java 对象以及 bean 代理如何实现访问控制。文章包含了两个示例应用程序,您可以使用它们进一步研究本系列中学到的概念,更多有关使用 Acegi 保护 Java 应用程序的内容,请参见 参考资料 小节。
来自:http://www-128.ibm.com/developerworks/cn/java/j-acegi3/?
2007 年 6 月 21 日
了解了 Acegi 安全系统(Acegi Security System)的 基础知识 后,我们将介绍该系统的更加高级的应用。在本文中,Bilal Siddiqui 向您展示了如何结合使用 Acegi 和一个 LDAP 目录服务器,实现灵活的具有高性能的 Java™ 应用程序的安全性。还将了解如何编写访问控制策略并将其存储在 ApacheDS 中,然后配置 Acegi 使其与目录服务器交互,从而实现身份验证和授权的目的。
这期共分三部分的系列文章介绍了如何使用 Acegi 安全系统保护 Java 企业应用程序。在 本系列第一篇文章 中,我介绍了 Acegi 并解释了如何使用安全过滤器实现一个简单的基于 URL 的安全系统。在第二篇文章中,我将讨论 Acegi 的更加高级的应用,首先我将编写一个访问控制策略并将其存储在 ApacheDS 中,ApacheDS 是一个开源的 LDAP 目录服务器。我还将展示配置 Acegi 的方法,使它能够与目录服务器交互并实现您的访问控制策略。本文的结尾提供了一个示例应用程序,它使用 ApacheDS 和 Acegi 实现了一个安全的访问控制策略。
实现访问控制策略通常包含两个步骤:
- 将有关用户和用户角色的数据存储在目录服务器中。
- 编写安全代码,它将定义有权访问并使用数据的人员。
Acegi 将减轻代码编写的工作,因此在这篇文章中,我将展示如何将用户和用户角色信息存储到 ApacheDS 中,然后实现这些信息的访问控制策略。在该系列的最后一篇文章中,我将展示如何配置 Acegi,实现对 Java 类的安全访问。
您可以在本文的任何位置 下载样例应用程序。参见 参考资料 下载 Acegi、Tomcat 和 ApacheDS,您需要使用它们运行样例代码和示例应用程序。
LDAP 基础知识
轻量级目录访问协议(Lightweight Directory Access Protocol,LDAP)可能是最流行的一种定义数据格式的协议,它针对常见的目录操作,例如对存储在目录服务器中的信息执行的读取、编辑、搜索和删除操作。本节将简要解释为什么目录服务器是属性文件存储安全信息的首选,并展示如何在 LDAP 目录中组织和托管用户信息。
为什么要使用目录服务器?
本系列第一部分向您介绍了一种简单的方法,可以将用户信息以属性文件的形式保存起来(参见 第 1 部分,清单 6)。属性文件以文本格式保存用户名、密码和用户角色。对于大多数真实应用程序而言,使用属性文件存储安全信息远远不够。各种各样的理由表明,目录服务器通常都是更好的选择。其中一个原因是,真实的企业应用程序可以被大量用户访问 —— 通常是几千名用户,如果应用程序将其部分功能公开给用户和供应商时更是如此。频繁搜索文本文件中随意存储的信息,这样做的效率并不高,但是目录服务器对这类搜索进行了优化。
第 1 部分的清单 6 中的属性文件演示了另一个原因,该文件组合了用户和角色。在真实的访问控制应用程序中,您通常都需要分别定义和维护用户和角色信息,这样做可以简化用户库的维护。目录服务器为更改或更新用户信息提供了极大的灵活性,例如,反映职位升迁或新聘用人员。参见 参考资料 以了解更多关于目录服务器的使用及其优点的信息。
LDAP 目录设置
如果希望将用户信息存储在一个 LDAP 目录中,您需要理解一些有关目录设置的内容。本文并没有提供对 LDAP 的完整介绍(参见 参考资料),而是介绍了一些在尝试结合使用 Acegi 和 LDAP 目录之前需要了解的基本概念。
LDAP 目录以节点树的形式存储信息,如图 1 所示:
图 1. LDAP 目录的树状结构
在图 1 中,根节点的名称为 org
。根节点可以封装与不同企业有关的数据。例如,本系列第 1 部分开发的制造业企业被显示为 org
节点的直接子节点。该制造业企业具有两个名为 departments
和 partners
的子节点。
partners
子节点封装了不同类型的合作伙伴。图 1 所示的三个分别为 customers
、employees
和 suppliers
。注意,这三种类型的合作伙伴其行为与企业系统用户一样。每一种类型的用户所扮演的业务角色不同,因此访问系统的权利也不同。
类似地,departments
节点包含该制造业企业的不同部门的数据 —— 例如 engineering
和 marketing
字节点。每个部门节点还包含一组或多组用户。在 图 1 中,engineers
组是 engineering
部门的子节点。
假设每个部门的子节点表示一组用户。因此,部门节点的子节点具有不同的用户成员。例如,设计部门的所有工程师都是 engineering
部门内 engineers
组的成员。
最后,注意 图 1 中 departments
节点的最后一个子节点。specialUser
是一名用户,而非一组用户。在目录设置中,像 alice
和 bob
之类的用户一般都包含在 partners
节点中。我将这个特殊用户包含在 departments
节点中,以此证明 Acegi 允许用户位于 LADP 目录中任何地点的灵活性。稍后在本文中,您将了解如何配置 Acegi 以应用 specialUser
。
使用专有名称
LDAP 使用专有名称(DN)的概念来识别 LDAP 树上特定的节点。每个节点具有惟一的 DN,它包含该节点完整的层次结构信息。例如,图 2 展示了图 1 中的一些节点的 DN:
图 2. LDAP 目录节点的专有名称
首先,注意图 2 中根节点的 DN。它的 DN 为 dc=org
,这是与 org
根节点相关的属性值对。每个节点都有若干个与之相关的属性。dc
属性代表 “domain component” 并由 LDAP RFC 2256 定义(参见 参考资料 中有关官方 RFC 文档的链接),LDAP 目录中的根节点通常表示为一个域组件。
每个 LDAP 属性是由 RFC 定义的。LDAP 允许使用多个属性创建一个 DN,但是本文的示例只使用了以下 4 个属性:
dc
(域组件)
o
(组织)
ou
(组织单元)
uid
(用户 ID)
示例使用 dc
表示域,用 o
表示组织名称,ou
表示组织的不同单元,而 uid
表示用户。
由于 org
是根节点,其 DN 只需指定自身的名称(dc=org
)。比较一下,manufacturingEnterprise
节点的 DN 是 o=manufacturingEnterprise,dc=org
。当向下移动节点树时,每个父节点的 DN 被包含在其子节点的 DN 中。
将属性分组
LDAP 将相关的属性类型分到对象类中。例如,名为 organizationalPerson
的对象类所包含的属性定义了在组织内工作的人员(例如,职称、常用名、邮寄地址等等)。
对象类使用继承特性,这意味着 LDAP 定义了基类来保存常用属性。然后子类再对基类进行扩展,使用其定义的属性。LDAP 目录中的单个节点可以使用若干个对象类:本文的示例使用了以下几个对象类:
- top 对象类是 LDAP 中所有对象类的基类。
- 当其他对象类都不适合某个对象时,将使用 domain 对象类。它定义了一组属性,任何一个属性都可以用来指定一个对象。其
dc
属性是强制性的。
- organization 对象类表示组织节点,例如 图 2 中的
manufacturingEnterprise
。
- organizationalUnit 对象类表示组织内的单元,例如 图 1 中的
departments
节点及其子节点。
- groupOfNames 对象类表示一组名称,例如某部门职员的名称。它具有一个
member
属性,该属性包含一个用户列表。图 1 中所有的组节点(例如 engineers
节点)使用 member
属性指定该组的成员。而且,示例使用 groupOfNames
对象类的 ou
(组织单元)属性指定组用户的业务角色。
- organizationalPerson 对象类表示组织内某个职员(例如 图 1 中的
alice
节点)。
使用 LDAP 服务器
在真实的应用程序中,通常将有关系统用户的大量信息托管在一个 LDAP 目录中。例如,将存储每个用户的用户名、密码、职称、联系方式和工资信息。为简单起见,下面的例子将只向您展示如何保存用户名和密码。
如前所述,示例使用 ApacheDS(一种开源的 LDAP 目录服务器)演示了 Acegi 是如何使用 LDAP 目录的。示例还使用了一个开源的 LDAP 客户机(名为 JXplorer)执行简单的目录操作,例如将信息托管在 ApacheDS 上。参见 参考资料 以下载 ApacheDS、JXplorer 并了解更多有关两者协作的信息。
在 ApacheDS 创建一个根节点
要创建 图 1 所示的节点树,必须首先在 ApacheDS 中创建一个根节点 org
。ApacheDS 为此提供了一个 XML 配置文件。XML 配置文件定义了一组可进行配置的 bean,从而根据应用程序的需求定制目录服务器的行为。本文只解释创建根节点所需的配置。
可以在 ApacheDS 安装中的 conf
文件夹找到名为 server.xml
的 XML 配置文件。打开文件后,会发现很多 bean 配置类似于 Acegi 的过滤器配置。查找名为 examplePartitionsConfiguration
的 bean。该 bean 控制 ApacheDS 上的分区。当创建新的根节点时,实际上将在 LDAP 目录上创建一个新的分区。
编辑 examplePartitionConfiguration
bean 以创建 org
根节点,如清单 1 所示:
清单 1. 编辑模式的 examplePartitionConfiguration bean 配置
<bean id="examplePartitionConfiguration" class=
"org.apache.directory.server.core.partition.impl.btree.MutableBTreePartitionConfiguration"
>
<property name="suffix"><value>dc=org</value></property>
<property name="contextEntry">
<value>
objectClass: top
objectClass: domain
dc: org
</value>
</property>
<!-- Other properties of the examplePartitionConfiguration bean, which you don't
need to edit. -->
</bean>
|
清单 1 编辑了 examplePartitionConfiguration
bean 的两个属性:
- 一个属性名为
suffix
,它定义根条目的 DN。
- 另一个属性名为
contextEntry
,定义 org
节点将使用的对象类。注意,org
根节点使用两个对象类:top
和 domain
。
本文的 源代码下载 部分包含了编辑模式的 server.xml 文件。如果希望继续学习本示例,请将 server.xml 文件从源代码中复制到您的 ApacheDS 安装目录中的正确位置,即 conf
文件夹。
图 3 所示的屏幕截图展示了在 ApacheDS 中创建根节点后,JXplorer 是如何显示该根节点的:
图 3. JXplorer 显示根节点
填充服务器
设置 LDAP 服务器的下一步是使用用户和组信息填充服务器。您可以使用 JXplorer 在 ApacheDS 中逐个创建节点,但是使用 LDAP Data Interchange Format (LDIF) 填充服务器会更加方便。LDIF 是可被大多数 LDAP 实现识别的常见格式。developerWorks 文章很好地介绍了 LDIF 文件的内容,因此本文将不再做详细说明。(参见 参考资料 中有关 LDIF 的详细资料。)
您可以在 源代码下载 部分查看 LDIF 文件,它表示 图 1 所示的用户和部门。您可以使用 JXplorer 将 LDIF 文件导入到 ApacheDS。要导入 LDIF 文件,在 JXplorer 中使用 LDIF
菜单,如图 4 所示:
图 4. 将 LDIF 文件导入到 ApacheDS
将 LDIF 文件导入到 ApacheDS 之后,JXplorer 将显示用户节点和部门节点树,如 图 1 所示。现在您可以开始配置 Acegi,使其能够与您的 LDAP 服务器通信。
为 LDAP 实现配置 Acegi
回想一下第 1 部分,其中 Acegi 使用身份验证处理过滤器(Authentication Processing Filter,APF)进行身份验证。APF 执行所有后端身份验证处理任务,例如从客户机请求中提取用户名和密码,从后端用户库读取用户参数,以及使用这些信息对用户进行身份验证。
您在第 1 部分中为属性文件实现配置了 APF,现在您已将用户库存储在 LDAP 目录中,因此必须使用不同的方式配置过滤器来和 LDAP 目录进行通信。首先看一下清单 2,它展示了在第 1 部分中的 “Authentication Processing Filter” 一节中如何为属性文件实现配置 APF 过滤器:
清单 2. 为属性文件配置 APF
<bean id="authenticationProcessingFilter"
class="org.acegisecurity.ui.webapp.AuthenticationProcessingFilter">
<property name="authenticationManager" ref="authenticationManager" />
<property name="authenticationFailureUrl"
value="/login.jsp?login_error=1" />
<property name="defaultTargetUrl"
value="/index.jsp" />
<property name="filterProcessesUrl"
value="/j_acegi_security_check" />
</bean>
|
查看一下清单 2,您曾经为 APF 提供了 4 个参数。您只需在 LDAP 服务器中为存储重新配置第一个参数(authenticationManager
)即可。其他三个参数保持不变。
配置身份验证管理器
清单 3 展示了如何配置 Acegi 的身份验证管理器,以实现与 LDAP 服务器的通信:
清单 3. 为 LDAP 配置 Acegi 的身份验证管理器
<bean id="authenticationManager"
class="org.acegisecurity.providers.ProviderManager">
<property name="providers">
<list>
<ref local="ldapAuthenticationProvider" />
</list>
</property>
</bean>
|
在清单 3 中,org.acegisecurity.providers.ProviderManager
是一个管理器类,它管理 Acegi 的身份验证过程。为此,身份验证管理器需要一个或多个身份验证提供者。您可以使用管理器 bean 的提供者属性来配置一个或多个提供者。清单 3 只包含了一个提供者,即 LDAP 身份验证提供者。
LDAP 身份验证提供者处理所有与后端 LDAP 目录的通信。您必须对其进行配置,下一节内容将讨论该主题。
配置 LDAP 身份验证提供者
清单 4 展示了 LDAP 身份验证提供者的配置:
清单 4. 配置 LDAP 身份验证提供者
<bean id="ldapAuthenticationProvider"
class="org.acegisecurity.providers.ldap.LdapAuthenticationProvider">
<constructor-arg><ref local="authenticator"/></constructor-arg>
<constructor-arg><ref local="populator"/></constructor-arg>
</bean>
|
注意 LDAP 身份验证提供者类的名称为 org.acegisecurity.providers.ldap.LdapAuthenticationProvider
。其构造函数包含两个参数,使用两个 <constructor-arg>
标记的形式,如清单 4 所示。
LdapAuthenticationProvider
构造函数的第一个参数是 authenticator
,该参数通过检查用户的用户名和密码对 LDAP 目录的用户进行身份验证。完成身份验证后,第二个参数 populator
将从 LDAP 目录中检索有关该用户的访问权限(或业务角色)信息。
以下小节将向您展示如何配置验证器和填充器 bean。
配置验证器
authenticator
bean 将检查具有给定用户名和密码的用户是否存在于 LDAP 目录中。Acegi 提供了名为 org.acegisecurity.providers.ldap.authenticator.BindAuthenticator
的验证器类,它将执行验证用户名和密码所需的功能。
配置 authenticator
bean,如清单 5 所示:
清单 5. 配置验证器 bean
<bean id="authenticator"
class="org.acegisecurity.providers.ldap.authenticator.BindAuthenticator">
<constructor-arg><ref local="initialDirContextFactory"/></constructor-arg>
<property name="userDnPatterns">
<list>
<value>uid={0},ou=employees,ou=partners</value>
<value>uid={0},ou=customers,ou=partners</value>
<value>uid={0},ou=suppliers,ou=partners</value>
</list>
</property>
<property name="userSearch"><ref local="userSearch"/></property>
</bean>
|
在清单 5 中,BindAuthenticator
构造函数具有一个参数,使用 <constructor-arg>
标记的形式。清单 5 中参数的名称为 initialDirContextFactory
。该参数实际上是另一个 bean,稍后您将学习如何配置该 bean。
目前为止,只知道 initialDirContextFactory
bean 的作用就是为稍后的搜索操作指定初始上下文。初始上下文是一个 DN,它指定了 LDAP 目录内某个节点。指定初始上下文后,将在该节点的子节点中执行所有的搜索操作(例如查找特定用户)。
例如,回到 图 2 中查看 partners
节点,它的 DN 是 ou=partners,o=manufacturingEnterprise,dc=org
。如果将 partners
节点指定为初始上下文,Acegi 将只在 partners
节点的子节点中查找用户。
指定 DN 模式
除配置 BindAuthenticator
构造函数外,还必须配置 authenticator
bean 的两个属性(清单 5 中的两个 <property>
标记)。
第一个 <property>
标记定义了一个 userDnPatterns
属性,它封装了一个或多个 DN 模式列表。DN 模式 指定了一组具有类似特性的 LDAP 节点(例如 图 2 所示的 employees
节点的所有子节点)。
Acegi 的身份验证器从 authenticator
bean 的 userDnPatterns
属性中配置的每个 DN 模式构造了一个 DN。例如,查看 清单 5 中配置的第一个模式,即 uid={0},ou=employees,ou=partners
。在进行身份验证的时候,authenticator
bean 使用用户提供的用户名(比如 alice
)替换了 {0}
。使用用户名取代了 {0}
之后,DN 模式将变为相对 DN(RDN)uid=alice,ou=employees,ou=partners
,它需要一个初始上下文才能成为 DN。
例如,查看 图 2 中的 alice's
条目。该条目是 employees
节点的第一个子节点。它的 DN 是 uid=alice,ou=employees,ou=partners,o=manufacturingEnterprise, dc=org
。如果使用 o=manufacturingEnterprise,dc=org
作为初始上下文并将其添加到 RDN uid=alice,ou=employees,ou=partners
之后,将获得 alice 的 DN。
使用这种方法通过 DN 模式构建了用户的 DN 后,authenticator
将把 DN 和用户密码发送到 LDAP 目录。目录将检查该 DN 是否具有正确的密码。如果有的话,用户就可以通过身份验证。这个过程在 LDAP 术语中被称为 bind 身份验证。LDAP 还提供了其他类型的身份验证机制,但是本文的示例只使用了 bind 身份验证。
如果目录中并没有第一个 DN 模式创建的 DN,authenticator
bean 尝试使用列表中配置的第二个 DN 模式。依此类推,authenticator
bean 将尝试所有的 DN 模式来为进行身份验证的用户构造正确的用户 DN。
搜索过滤器
回想一下较早的章节 “LDAP 目录设置”,我在将用户信息存储到 LDAP 目录时添加了一点灵活性。方法是在 图 1 所示的 departments
节点内创建一个特定用户(specialUser
)。
如果试图使用 清单 5 中配置的任何一种 DN 模式创建特定用户的 DN,您会发现没有一种 DN 模式可用。因此,当用户尝试登录时,Acegi 的 authenticator
bean 将不能够构造正确的 DN,从而无法对该用户进行身份验证。
通过允许您指定搜索过滤器,Acegi 能够处理类似的特殊情况。身份验证器 bean 使用搜索过滤器查找不能够通过 DN 模式构造 DN 进行身份验证的用户。
清单 5 中的第二个 <property>
标记具有一个 <ref>
子标记,它引用名为 userSearch
的 bean。userSearch
bean 指定搜索查询。清单 6 展示了如何配置 userSearch
bean 来处理特定用户:
清单 6. 配置搜索查询以搜索特定用户
<bean id="userSearch"
class="org.acegisecurity.ldap.search.FilterBasedLdapUserSearch">
<constructor-arg>
<value>ou=departments</value>
</constructor-arg>
<constructor-arg>
<value>(uid={0})</value>
</constructor-arg>
<constructor-arg>
<ref local="initialDirContextFactory" />
</constructor-arg>
<property name="searchSubtree">
<value>true</value>
</property>
</bean>
|
搜索查询的参数
清单 6 展示了 userSearch
bean 是 org.acegisecurity.ldap.search.FilterBasedLdapUserSearch
类的一个实例,该类的构造函数具有三个参数。第一个参数指定 authenticator
在哪个节点中搜索用户。第一个参数的值为 ou=departments
,该值是一个 RDN,指定了 图 2 所示的 departments
节点。
第二个参数 (uid={0})
指定了一个搜索过滤器。由于使用 uid
属性指定用户,因此可以通过查找 uid
属性具有特定值的节点来查找用户。正如您所料,花括号里面的 0 向 Acegi 表示使用进行身份验证的用户的用户名(本例中为 specialUser
)替换 {0}
。
第三个参数是对讨论 清单 5 中的 BindAuthenticator
构造函数时引入的相同初始上下文的引用。回想一下,当指定了初始上下文后,稍后将在该初始上下文节点的子节点内进行所有的搜索操作。注意,应将指定为 清单 5 中第一个参数(ou=departments
)的值的 RDN 前加到初始上下文。
除了这三个构造器参数,清单 6 所示的 userSearch
bean 还具有一个名为 searchSubtree
的属性。如果将其值指定为 true
,搜索操作将包括节点的子树(即所有子节点、孙节点、孙节点的子节点等),该节点被指定为构造函数的第一个参数的值。
authenticator
bean 的配置完成后,下一步将查看 populator
bean 的配置,如 清单 4 所示。
配置 populator
populator
bean 将读取已经通过 authenticator
bean 身份验证的用户的业务角色。清单 7 展示 populator
bean 的 XML 配置:
清单 7. populator bean 的 XML 配置
<bean id="populator"
class="org.acegisecurity.providers.ldap.populator.DefaultLdapAuthoritiesPopulator">
<constructor-arg>
<ref local="initialDirContextFactory"/>
</constructor-arg>
<constructor-arg>
<value>ou=departments</value>
</constructor-arg>
<property name="groupRoleAttribute">
<value>ou</value>
</property>
<property name="searchSubtree">
<value>true</value>
</property>
</bean>
|
在清单 7 中,populator
bean 的构造函数包括 2 个参数,以及一个 groupRoleAttribute
属性。构造函数的第一个参数指定了 populator
bean 用来读取经过验证用户的业务角色的初始上下文。并不强制要求 authenticator
和 populator
bean 使用相同的初始上下文。您可以为这两者分别配置一个初始上下文。
第二个构造函数参数指定了 populator 前加到初始上下文的 RDN。因此,RDN 组成了包含组用户的节点的 DN,例如 departments
节点。
populator
bean 的 groupRoleAttribute
属性指定了持有组成员业务角色数据的属性。回想 设置 LDAP 目录 一节中,您将每组用户的业务角色信息存储在名为 ou
的属性中。然后将 ou
设置为 groupRoleAttribute
属性的值,如 清单 7 所示。
如您所料,populator
bean 将搜索整个 LDAP 目录来查找经过验证的用户所属的组节点。然后读取组节点的 ou
属性的值,获取用户经过授权的业务角色。
这样就完成了 populator
bean 的配置。目前为止,我们在三个位置使用了初始上下文:清单 5、清单 6 和 清单 7。接下来将了解如何配置初始上下文。
配置初始上下文
清单 8 展示了在 Acegi 中配置初始上下文的过程:
清单 8. 初始上下文的 XML 配置
<bean id="initialDirContextFactory"
class="org.acegisecurity.ldap.DefaultInitialDirContextFactory">
<constructor-arg value="ldap://localhost:389/o=manufacturingEnterprise,dc=org"/>
<property name="managerDn">
<value>cn=manager,o=manufacturingEnterprise,dc=org</value>
</property>
<property name="managerPassword">
<value>secret</value>
</property>
</bean>
|
清单 8 中 Acegi 的初始上下文类的名称为 org.acegisecurity.ldap.DefaultInitialDirContextFactory
,这是 Acegi 包含的工厂类。Acegi 在内部使用该类构造其他处理目录操作(例如在整个目录中搜索)的类的对象。当配置初始上下文工厂时,必须指定以下内容:
- 将您的 LDAP 目录和根目录节点的网络地址指定为构造函数的参数。在初始上下文配置的节点将作为根节点。就是说所有后续操作(例如
search
)都将在根节点定义的子树中执行。
- 将 DN 和密码分别定义为
managerDn
和 managerPassword
属性。在执行任何搜索操作之前,Acegi 必须使用目录服务器对 DN 和密码进行身份验证。
您已经了解了如何将用户库托管在 LDAP 目录中,以及如何配置 Acegi 来使用来自 LDAP 目录的信息对用户进行身份验证。下一节将进一步介绍 Acegi 的身份验证处理过滤器,了解新配置的 bean 是如何管理身份验证过程的。
身份验证和授权
APF 配置完成后,将能够与 LDAP 目录进行通信来对用户进行身份验证。如果您阅读过第 1 部分,那么对与目录通信过程中 APF 执行的一些步骤不会感到陌生,我在第 1 部分中向您展示了过滤器如何使用不同的服务进行用户身份验证。图 5 所示的序列表与您在 第 1 部分图 3 看到的非常类似:
图 5. APF 对一名 LDAP 用户进行身份验证
无论 APF 使用属性文件进行内部的身份验证还是与 LDAP 服务器进行通信,步骤 1 到步骤 9 与第 1 部分是相同的。这里简单描述了前 9 个步骤,您可以从步骤 10 开始继续学习特定于 LDAP 的事件:
- 过滤器链前面的过滤器将请求、响应和过滤器链对象传递给 APF。
- APF 使用取自请求对象的用户名、密码和其他信息创建一个身份验证标记。
- APF 将身份验证标记传递给身份验证管理器。
- 身份验证管理器可能包含一个或多个身份验证提供者。每个提供者恰好支持一种身份验证类型。管理器将检查哪一种提供者支持从 APF 接收到的身份验证标记。
- 身份验证管理器将身份验证标记传递给适合该类型身份验证的提供者。
- 身份验证提供者从身份验证标记中提取用户名并将其传递到名为 user cache service 的服务。Acegi 缓存了已经进行过身份验证的用户。该用户下次登录时,Acegi 可以从缓存中加载他或她的详细信息(比如用户名、密码和权限),而不是从后端数据存储中读取数据。这种方法使得性能得到了改善。
- user cache service 检查用户的详细信息是否存在于缓存中。
- user cache service 将用户的详细信息返回给身份验证提供者。如果缓存不包含用户详细信息,则返回 null。
- 身份验证提供者检查缓存服务返回的是用户的详细信息还是 null。
- 从这里开始,身份验证处理将特定于 LDAP。 如果缓存返回 null,LDAP 身份验证提供者将把用户名(在步骤 6 中提取的)和密码传递给 清单 5 中配置的
authenticator
bean。
authenticator
将使用在 清单 5 的 userDnPatterns
属性中配置的 DN 模式创建用户 DN。通过从一个 DN 模式中创建一个 DN,然后将该 DN 和用户密码(从用户请求中获得)发送到 LDAP 目录,它将逐一尝试所有可用的 DN 模式。LDAP 目录将检查该 DN 是否存在以及密码是否正确。如果其中任何一个 DN 模式可行的话,用户被绑定到 LDAP 目录中,authenticator
将继续执行步骤 15。
- 如果任何一种 DN 模式都不能工作的话(这意味着在 DN 模式指定的任何位置都不存在使用给定密码的用户),
authenticator
根据 清单 6 配置的搜索查询在 LDAP 目录中搜索用户。如果 LDAP 目录没有找到用户,那么身份验证以失败告终。
- 如果 LDAP 目录查找到了用户,它将用户的 DN 返回到
authenticator
。
authenticator
将用户 DN 和密码发送到 LDAP 目录来检查用户密码是否正确。如果 LDAP 目录发现用户密码是正确的,该用户将被绑定到 LDAP 目录。
authenticator
将用户信息发送回 LDAP 身份验证提供者。
- LDAP 身份验证提供者将控制权传递给
populator
bean。
populator
搜索用户所属的组。
- LDAP 目录将用户角色信息返回给
populator
。
populator
将用户角色信息返回给 LDAP 身份验证提供者。
- LDAP 身份验证提供者将用户的详细信息(以及用户业务角色信息)返回给 APF。用户现在成功进行了身份验证。
不论使用何种身份验证方法,最后三个步骤是相同的(步骤21、21 和 23)。
配置拦截器
您已经了解了 APF 对用户进行身份验证的步骤。接下来是查看成功进行身份验证的用户是否被授权访问所请求的资源。这项任务由 Acegi 的拦截过滤器(Interceptor Filter,IF)完成。本节将向您展示如何配置 IF 来实现访问控制策略。
回想一下在 第 1 部分的清单 7 中配置 IF 的步骤。拦截过滤器在资源和角色之间建立映射,就是说只有具备必要角色的用户才能访问给定资源。为了演示制造业企业中不同部门的业务角色,清单 9 向现有的 IF 配置添加了另外的角色:
清单 9. 配置拦截过滤器
<bean id="filterInvocationInterceptor"
class="org.acegisecurity.intercept.web.FilterSecurityInterceptor">
<property name="authenticationManager" ref="authenticationManager" />
<property name="accessDecisionManager" ref="accessDecisionManager" />
<property name="objectDefinitionSource">
<value>
CONVERT_URL_TO_LOWERCASE_BEFORE_COMPARISON
PATTERN_TYPE_APACHE_ANT
/protected/engineering/**=ROLE_HEAD_OF_ENGINEERING
/protected/marketing/**=ROLE_HEAD_OF_MARKETING
/**=IS_AUTHENTICATED_ANONYMOUSLY
</value>
</property>
</bean>
|
在清单 9 中,IF 包含三个参数。其中第一个和第三个参数与第 1 部分中最初配置的参数相同。这里添加了第二个参数(名为 accessDecisionManager
的 bean)。
accessDecisionManager
bean 负责指定授权决策。它使用清单 9 中第三个参数提供的访问控制定义来指定授权(或访问控制)决策。第三个参数是 objectDefinitionSource
。
配置访问决策管理器
accessDecisionManager
决定是否允许一个用户访问某个资源。Acegi 提供了一些访问决策管理器,它们指定访问控制决策的方式有所不同。本文只解释了其中一种访问决策管理器的工作方式,其配置如清单 10 所示:
清单 10. 配置访问决策管理器
<bean id="accessDecisionManager" class="org.acegisecurity.vote.AffirmativeBased">
<property name="decisionVoters">
<list>
<bean class="org.acegisecurity.vote.RoleVoter"/>
<bean class="org.acegisecurity.vote.AuthenticatedVoter" />
</list>
</property>
</bean>
|
在清单 10 中,accessDecisionManager
bean 是 org.acegisecurity.vote.AffirmativeBased
类的实例。accessDecisionManager
bean 只包含一个参数,即投票者(voter)列表。
在 Acegi 中,投票者确定是否允许某个用户访问特定的资源。当使用 accessDecisionManager
查询时,投票者具有三个选项:允许访问(access-granted)、拒绝访问(access-denied),如果不确定的话则放弃投票(abstain from voting)。
不同类型的访问决策管理器解释投票者决策的方法也有所不同。清单 10 所示的 AffirmativeBased
访问决策管理器实现了简单的决策逻辑:如果任何投票者强制执行肯定投票,将允许用户访问所请求的资源。
投票者逻辑
Acegi 提供了若干个投票者实现类型。accessDecisionManager
将经过验证的用户的信息(包括用户的业务角色信息)和 objectDefinitionSource
对象传递给投票者。本文的示例使用了两种类型的投票者,RoleVoter
和 AuthenticatedVoter
,如清单 10 所示。现在看一下每种投票者的逻辑:
- RoleVoter 只有在
objectDefinitionSource
对象的行中找到以 ROLE_
前缀开头的角色时才进行投票。如果 RoleVoter
没有找到这样的行,将放弃投票;如果在用户业务角色中找到一个匹配的角色,它将投票给允许访问;如果没有找到匹配的角色,则投票给拒绝访问。在 清单 9 中,有两个角色具有 ROLE_
前缀:ROLE_HEAD_OF_ENGINEERING
和 ROLE_HEAD_OF_MARKETING
。
- AuthenticatedVoter 只有在
objectDefinitionSource
对象中找到具有某个预定义角色的行时才进行投票。在 清单 9 中,有这样一行:IS_AUTHENTICATED_ANONYMOUSLY
。匿名身份验证意味着用户不能够进行身份验证。找到该行后,AuthenticatedVoter
将检查一个匿名身份验证的用户是否可以访问某些不受保护的资源(即这些资源没有包含在具备 ROLE_
前缀的行中)。如果 AuthenticatedVoter
发现所请求的资源是不受保护的并且 objectDefinitionSource
对象允许匿名身份验证的用户访问不受保护的资源,它将投票给允许访问;否则就投票给拒绝访问。
示例应用程序
本文提供了一个示例应用程序,它将演示您目前掌握的 LDAP 和 Acegi 概念。LDAP-Acegi 应用程序将显示一个索引页面,该页面将设计和销售文档呈现给合适的经过身份验证的用户。正如您将看到的一样,LDAP-Acegi 应用程序允许用户 alice
查看设计文档,并允许用户 bob
查看销售文档。它还允许特定用户同时查看设计和销售文档。所有这些内容都是在本文开头配置 LDAP 目录服务器时设置的。立即 下载示例应用程序 来开始使用它。
结束语
在本文中,您了解了如何将用户和业务角色信息托管在 LDAP 目录中。您还详细了解了配置 Acegi 的方法,从而与 LDAP 目录交互实现访问控制策略。在本系列最后一期文章中,我将展示如何配置 Acegi 来保护对 Java 类的访问。
来自:http://www.cnblogs.com/amboyna/archive/2008/03/25/1122084.html
2007 年 5 月 08 日
这份共分三部分的系列文章介绍了 Acegi 安全系统(Acegi Security System),它是用于 Java™ 企业应用程序的强大的开源安全框架。在第一篇文章中,Bilal Siddiqui 顾问将向您介绍 Acegi 的架构和组件,并展示如何使用它来保护一个简单的 Java 企业应用程序。
Acegi Security System 是一种功能强大并易于使用的替代性方案,使您不必再为 Java 企业应用程序编写大量的安全代码。虽然它专门针对使用 Spring 框架编写的应用程序,但是任何类型的 Java 应用程序都没有理由不去使用 Acegi。这份共分三部分的系列文章详细介绍了 Acegi,并展示了如何使用它保护简单的企业应用程序以及更复杂的应用程序。
本系列首先介绍企业应用程序中常见的安全问题,并说明 Acegi 如何解决这些问题。您将了解 Acegi 的架构模型及其安全过滤器,后者包含了在保护应用程序中将用到的大多数功能。您还将了解到各个过滤器如何单独进行工作,如何将它们组合起来,以及过滤器如何在一个企业安全实现中将各种功能从头到尾地链接起来。本文最后通过一个样例应用程序演示了基于 URL 安全系统的 Acegi 实现。本系列后续两篇文章将探究 Acegi 的一些更高级的应用,包括如何设计和托管访问控制策略,然后如何去配置 Acegi 以使用这些策略。
您必须 下载 Acegi,这样才能编译本文的示例代码并运行本文的样例应用程序。还必须有作为工作站的一部分运行的 Tomcat 服务器。
企业应用程序安全性
由于企业内容管理(ECM)应用程序管理存储在不同类型数据源(如文件系统、关系数据库和目录服务)中的企业内容的编写和处理,ECM 安全性要求对这些数据源的访问进行控制。比如,一个 ECM 应用程序可能会控制被授权读取、编辑或删除数据的对象,而这些数据和制造业企业的设计、市场营销、生产以及质量控制有关。
在一个 ECM 安全场景中,比较常见的就是通过对企业资源定位符(或网络地址)应用安全性,从而实现访问控制。这种简单的安全模型被称为统一资源定位符 或 URL 安全性。正如我在本文后面(以及本系列后续文章)所演示的一样,Acegi 为实现 URL 安全性提供了全面的特性。
然而,在很多企业场景中,URL 安全性还远远不够。比如,假设一个 PDF 文档包含某个制造业公司生产的特殊产品的数据。文档的一部分包含了将由该公司的设计部门编辑和更新的设计数据。另一部分包含了生产经理将使用的生产数据。对于诸如此类的场景,需要实现更加细粒度的安全性,对文档的不同部分应用不同的访问权限。
本文介绍了 Acegi 为实现 URL 安全性而提供的各种功能。本系列的下一篇文章将演示此框架的基于方法的安全性,它提供了对企业数据访问的更细粒度的控制。
Acegi Security System
Acegi Security System 使用安全过滤器来提供企业应用程序的身份验证和授权服务。该框架提供了不同类型的过滤器,可以根据应用程序的需求进行配置。您将在本文后面了解到 安全过滤器的不同类型;现在,只需注意可以为如下任务配置 Acegi 安全过滤器:
- 在访问一个安全资源之前提示用户登录。
- 通过检查安全标记(如密码),对用户进行身份验证。
- 检查经过身份验证的用户是否具有访问某个安全资源的特权。
- 将成功进行身份验证和授权的用户重定向到所请求的安全资源。
- 对不具备访问安全资源特权的用户显示 Access Denied 页面。
- 在服务器上记录成功进行身份验证的用户,并在用户的客户机上设置安全 cookie。使用该 cookie 执行下一次身份验证,而无需要求用户登录。
- 将身份验证信息存储在服务器端的会话对象中,从而安全地进行对资源的后续请求。
- 在服务器端对象中构建并保存安全信息的缓存,从而优化性能。
- 当用户退出时,删除为用户安全会话而保存的服务器端对象。
- 与大量后端数据存储服务(如目录服务或关系数据库)进行通信,这些服务用于存储用户的安全信息和 ECM 的访问控制策略。
正如这个列表显示的那样,Acegi 的安全过滤器允许您执行保护企业应用程序所需的几乎任何事情。
架构和组件
对 Acegi 了解越多,使用起来就越简单。这一节介绍 Acegi 的组件;接下来您将了解该框架如何使用反转控制(IOC)和 XML 配置文件来组合组件并表示它们的依赖关系。
四大组件
Acegi Security System 由四种主要类型的组件组成:过滤器、管理器、提供者和处理程序。
- 过滤器
- 这种最高级的组件提供了常见的安全服务,如身份验证、会话处理以及注销。我将在 本文后面的部分 深入讨论过滤器。
- 管理器
- 过滤器仅是安全相关功能的高级抽象:实际上要使用管理器和提供者实现身份验证处理和注销服务。管理器管理由不同提供者提供的较低级的安全服务。
- 提供者
- 有大量的提供者可用于和不同类型的数据存储服务通信,例如目录服务、关系数据库或简单的内存中的对象。这意味着您可以将用户库和访问控制协议存储在任何一种这样的数据存储服务中,并且 Acegi 的管理器将在运行时选择合适的提供者。
- 处理程序
- 有时任务可能会被分解为多个步骤,其中每个步骤由一个特定的处理程序执行。比方说,Acegi 的 注销过滤器 使用两个处理程序来退出一个 HTTP 客户机。其中一个处理程序使用户的 HTTP 会话无效,而另一个处理程序则删除用户的 cookie。当根据应用程序需求配置 Acegi 时,多个处理程序能够提供很好的灵活性。您可以使用自己选择的处理程序来执行保护应用程序所需的步骤。
反转控制
Acegi 的组件通过彼此之间的依赖来对企业应用程序进行保护。比如,一个身份验证处理过滤器需要一个身份验证管理器选择一个合适的身份验证提供者。这就是说您必须能够表示和管理 Acegi 组件的依赖关系。
IOC 实现通常用于管理 Java 组件之间的依赖关系。IOC 提供了两个重要的特性:
- 它提供了一种语法,表示应用程序所需的组件以及这些组件如何相互依赖。
- 它保证了所需的组件在运行时是可用的。
XML 配置文件
Acegi 使用 Spring 框架(请参见 参考资料)附带的流行开源 IOC 实现来管理其组件。Spring 需要您编写一个 XML 配置文件来表示组件的依赖关系,如清单 1 所示:
清单 1. Spring 配置文件的结构
<beans>
<bean id="filterChainProxy" class="org.acegisecurity.util.FilterChainProxy">
<property name="filterInvocationDefinitionSource">
<value> value here </value>
</property>
</bean>
<bean id="authenticationProcessingFilter"
class="org.acegisecurity.ui.webapp.AuthenticationProcessingFitler">
<property name="authenticationManager" ref="authManager"/>
<!-- Other properties -->
</bean>
<bean id="authManager"
class="org.acegisecurity.providers.ProviderManager">
<property name="providers">
<!-- List of providers here -->
</property>
</bean>
<!-- Other bean tags -->
</beans>
|
如您所见,Acegi 使用的 Spring XML 配置文件包含一个 <beans>
标记,它封装了一些其他的 <bean>
标记。所有的 Acegi 组件(即过滤器、管理器、提供者等)实际上都是 JavaBean。XML 配置文件中的每个 <bean>
标记都代表一个 Acegi 组件。
进一步解释 XML 配置文件
首先将注意到的是每个 <bean>
标记都包含一个 class 属性,这个属性标识组件所使用的类。<bean>
标记还具有一个 id 属性,它标识作为 Acegi 组件工作的实例(Java 对象)。
比方说,清单 1 的第一个 <bean>
标记标识了名为 filterChainProxy
的组件实例,它是名为 org.acegisecurity.util.FilterChainProxy
的类的实例。
使用 <bean>
标记的子标记来表示 bean 的依赖关系。比如,注意第一个 <bean>
标记的 <property>
子标记。<property>
子标记定义了 <bean>
标记依赖的其他 bean 或值。
所以在 清单 1 中,第一个 <bean>
标记的 <property>
子标记具有一个 name 属性和一个 <value>
子标记,分别定义了这个 bean 依赖的属性的名称和值。
同样,清单 1 中的第二个和第三个 <bean>
标记定义了一个过滤器 bean 依赖于一个管理器 bean。第二个 <bean>
标记表示过滤器 bean,而第三个 <bean>
标记表示管理器 bean。
过滤器的 <bean>
标记包含一个 <property>
子标记,该子标记具有两个属性:name
和 ref
。name
属性定义了过滤器 bean 的属性,而 ref
属性引用了管理器 bean 的实例(名称)。
下一节将展示如何在 XML 配置文件中配置 Acegi 过滤器。在本文后面的内容中,您将在一个样例 Acegi 应用程序中使用过滤器。
安全过滤器
正如我前面提到的一样,Acegi 使用安全过滤器为企业应用程序提供身份验证和授权服务。您可以根据应用程序的需要使用和配置不同类型的过滤器。这一节将介绍五种最重要的 Acegi 安全过滤器。
Session Integration Filter
Acegi 的 Session Integration Filter(SIF)通常是您将要配置的第一个过滤器。SIF 创建了一个安全上下文对象,这是一个与安全相关的信息的占位符。其他 Acegi 过滤器将安全信息保存在安全上下文中,也会使用安全上下文中可用的安全信息。
SIF 创建安全上下文并调用过滤器链中的其他过滤器。然后其他过滤器检索安全上下文并对其进行更改。比如,Authentication Processing Filter(我将稍后进行介绍)将用户信息(如用户名、密码和电子邮件地址)存储在安全上下文中。
当所有的处理程序完成处理后,SIF 检查安全上下文是否更新。如果任何一个过滤器对安全上下文做出了更改,SIF 将把更改保存到服务器端的会话对象中。如果安全上下文中没有发现任何更改,那么 SIF 将删除它。
在 XML 配置文件中对 SIF 进行了配置,如清单 2 所示:
清单 2. 配置 SIF
<bean id="httpSessionContextIntegrationFilter"
class="org.acegisecurity.context.HttpSessionContextIntegrationFilter"/>
|
Authentication Processing Filter
Acegi 使用 Authentication Processing Filter(APF)进行身份验证。APF 使用一个身份验证(或登录)表单,用户在其中输入用户名和密码,并触发身份验证。
APF 执行所有的后端身份验证处理任务,比如从客户机请求中提取用户名和密码,从后端用户库中读取用户参数,以及使用这些信息对用户进行身份验证。
在配置 APF 时,您必须提供如下参数:
- Authentication manager 指定了用来管理身份验证提供者的身份验证管理器。
- Filter processes URL 指定了客户在登录窗口中按下 Sign In 按钮时要访问的 URL。收到这个 URL 的请求后,Acegi 立即调用 APF。
- Default target URL 指定了成功进行身份验证和授权后呈现给用户的页面。
- Authentication failure URL 指定了身份验证失败情况下用户看到的页面。
APF 从用户的请求对象中得到用户名、密码和其他信息。它将这些信息传送给身份验证管理器。身份验证管理器使用适当的提供者从后端用户库中读取详细的用户信息(如用户名、密码、电子邮件地址和用户访问权利或特权),对用户进行身份验证,并将信息存储在一个 Authentication
对象中。
最后,APF 将 Authentication
对象保存在 SIF 之前创建的安全上下文中。存储在安全上下文中的 Authentication
对象将用于做出授权决策。
APF 的配置如清单 3 所示:
清单 3. 配置 APF
<bean id="authenticationProcessingFilter"
class="org.acegisecurity.ui.webapp.AuthenticationProcessingFilter">
<property name="authenticationManager"
ref="authenticationManager" />
<property name="filterProcessesUrl"
value="/j_acegi_security_check" />
<property name="defaultTargetUrl"
value="/protected/protected1.jsp" />
<property name="authenticationFailureUrl"
value="/login.jsp?login_error=1" />
</bean>
|
可以从这段代码中看到,APF 依赖于上面讨论的这四个参数。每个参数都是作为清单 3 所示的 <property>
标记配置的。
Logout Processing Filter
Acegi 使用一个 Logout Processing Filer(LPF)管理注销处理。当客户机发来注销请求时,将使用 LPF 进行处理。它标识了来自由客户机所调用 URL 的注销请求。
LPF 的配置如清单 4 所示:
清单 4. 配置 LPF
<bean id="logoutFilter" class="org.acegisecurity.ui.logout.LogoutFilter">
<constructor-arg value="/logoutSuccess.jsp"/>
<constructor-arg>
<list>
<bean class="org.acegisecurity.ui.logout.SecurityContextLogoutHandler"/>
</list>
</constructor-arg>
</bean>
|
可以看到 LPF 在其构造方法中包含两个参数:注销成功 URL(/logoutSuccess.jsp
)和处理程序列表。注销成功 URL 用来在注销过程完成后重定向客户机。处理程序执行实际的注销过程;我在这里只配置了一个处理程序,因为只需一个处理程序就可以使 HTTP 会话变为无效。我将在本系列下一篇文章中讨论更多的处理程序。
Exception Translation Filter
Exception Translation Filter(ETF)处理身份验证和授权过程中的异常情况,比如授权失败。在这些异常情况中,ETF 将决定如何进行操作。
比如,如果一个没有进行身份验证的用户试图访问受保护的资源,ETF 将显示一个登录页面要求用户进行身份验证。类似地,在授权失败的情况下,可以配置 ETF 来呈现一个 Access Denied 页面。
ETF 的配置如清单 5 所示:
清单 5. 配置 ETF
<bean id="exceptionTranslationFilter"
class="org.acegisecurity.ui.ExceptionTranslationFilter">
<property name="authenticationEntryPoint">
<bean
class="org.acegisecurity.ui.webapp.AuthenticationProcessingFilterEntryPoint">
<property name="loginFormUrl" value="/login.jsp" />
</bean>
</property>
<property name="accessDeniedHandler">
<bean class="org.acegisecurity.ui.AccessDeniedHandlerImpl">
<property name="errorPage" value="/accessDenied.jsp" />
</bean>
</property>
</bean>
|
正如清单 5 所示,ETF 包含两个参数,名为 authenticationEntryPoint
和 accessDeniedHandler
。authenticationEntryPoint
属性指定登录页面,而 accessDeniedHandler
指定 Access Denied 页面。
拦截过滤器
Acegi 的拦截过滤器 用于做出授权决策。您需要在 APF 成功执行身份验证后对拦截过滤器进行配置,以使其发挥作用。拦截器使用应用程序的访问控制策略来做出授权决定。
本系列的下一篇文章将展示如何设计访问控制策略,如何将它们托管在目录服务中,以及如何配置 Acegi 以读取您的访问控制策略。但是,目前我将继续向您展示如何使用 Acegi 配置一个简单的访问控制策略。在本文后面的部分,您将看到使用简单的访问控制策略构建一个样例应用程序。
配置简单的访问控制策略可分为两个步骤:
- 编写访问控制策略。
- 根据策略配置 Acegi 的拦截过滤器。
步骤 1. 编写简单的访问控制策略
首先看一下 清单 6,它展示了如何定义一个用户及其用户角色:
清单 6. 为用户定义简单的访问控制策略
alice=123,ROLE_HEAD_OF_ENGINEERING
|
清单 6 所示的访问控制策略定义了用户名 alice
,它的密码是 123
,角色是 ROLE_HEAD_OF_ENGINEERING
。(下一节将说明如何在文件中定义任意数量的用户及其用户角色,然后配置拦截过滤器以使用这些文件。)
步骤 2. 配置 Acegi 的拦截过滤器
拦截过滤器使用三个组件来做出授权决策,我在清单 7 中对其进行了配置:
清单 7. 配置拦截过滤器
<bean id="filterInvocationInterceptor"
class="org.acegisecurity.intercept.web.FilterSecurityInterceptor">
<property name="authenticationManager" ref="authenticationManager" />
<property name="accessDecisionManager" ref="accessDecisionManager" />
<property name="objectDefinitionSource">
<value>
CONVERT_URL_TO_LOWERCASE_BEFORE_COMPARISON
PATTERN_TYPE_APACHE_ANT
/protected/**=ROLE_HEAD_OF_ENGINEERING
/**=IS_AUTHENTICATED_ANONYMOUSLY
</value>
</property>
<!-- More properties of the interceptor filter -->
</bean>
|
如清单 7 所示,配置所需的三个组件是 authenticationManager
、accessDecisionManager
、objectDefinitionSource
:
authenticationManager
组件与我在介绍 Authentication Processing Filter 时讨论过的身份验证管理器相同。拦截过滤器可以在授权的过程中使用 authenticationManager
重新对客户机进行身份验证。
accessDecisionManager
组件管理授权过程,这部分内容将在本系列的下篇文章中详细讨论。
objectDefinitionSource
组件包含对应于将要发生的授权的访问控制定义。例如,清单 7 中的 objectDefinitionSource
属性值包含两个 URL(/protected/*
和 /*
)。其值定义了这些 URL 的角色。/protected/*
URL 的角色是 ROLE_HEAD_OF_ENGINEERING
。您可以根据应用程序的需要定义任何角色。
回想一下 清单 6,您为用户名 alice
定义了 ROLE_HEAD_OF_ENGINEERING
。这就是说 alice
将能够访问 /protected/*
URL。
过滤器工作原理
正如您已经了解到的一样,Acegi 的组件彼此依赖,从而对您的应用程序进行保护。在本文后面的部分,您将看到如何对 Acegi 进行配置,从而按照特定的顺序应用安全过滤器,因此需要创建过滤器链。出于这个目的,Acegi 保存了一个过滤器链对象,它封装了为保护应用程序而配置了的所有过滤器。图 1 展示了 Acegi 过滤器链的生命周期,该周期从客户机向您的应用程序发送 HTTP 请求开始。(图 1 显示了服务于浏览器客户机的容器。)
图 1. 托管 Acegi 过滤器链以安全地为浏览器客户机服务的容器
下面的步骤描述了过滤器链的生命周期:
- 浏览器客户机向您的应用程序发送 HTTP 请求。
- 容器接收到 HTTP 请求并创建一个请求对象,该对象将封装 HTTP 请求中包含的信息。容器还创建一个各种过滤器都可处理的响应对象,从而为发出请求的客户机准备好 HTTP 响应。容器然后调用 Acegi 的过滤器链代理,这是一个代理过滤器。该代理知道应用的过滤器的实际顺序。当容器调用代理时,它将向代理发送请求、响应以及过滤器链对象。
- 代理过滤器调用过滤器链中第一个过滤器,向其发送请求、响应和过滤器链对象。
- 链中的过滤器逐个执行其处理。一个过滤器可以通过调用过滤器链中下一个过滤器随时终止自身处理。有的过滤器甚至根本不执行任何处理(比如,如果 APF 发现一个到来的请求没有要求身份验证,它可能会立即终止其处理)。
- 当身份验证过滤器完成其处理时,这些过滤器将把请求和响应对象发送到应用程序中配置的拦截过滤器。
- 拦截器决定是否对发出请求的客户机进行授权,使它访问所请求的资源。
- 拦截器将控制权传输给应用程序(比如,成功进行了身份验证和授权的客户机请求的 JSP 页面)。
- 应用程序改写响应对象的内容。
- 响应对象已经准备好了,容器将响应对象转换为 HTTP 响应,并将响应发送到发出请求的客户机。
为帮助您进一步理解 Acegi 过滤器,我将详细探讨其中两个过滤器的操作:Session Integration Filter 和 Authentication Processing Filter。
SIF 如何创建一个安全上下文
图 2 展示了 SIF 创建安全上下文所涉及到的步骤:
图 2. SIF 创建安全上下文
现在详细地考虑下面这些步骤:
- Acegi 的过滤器链代理调用 SIF 并向其发送请求、响应和过滤器链对象。注意:通常将 SIF 配置为过滤器链中第一个过滤器。
- SIF 检查它是否已经对这个 Web 请求进行过处理。如果是的话,它将不再进一步进行处理,并将控制权传输给过滤器链中的下一个过滤器(参见下面的第 4 个步骤)。如果 SIF 发现这是第一次对这个 Web 请求调用 SIF,它将设置一个标记,将在下一次使用该标记,以表示曾经调用过 SIF。
- SIF 将检查是否存在一个会话对象,以及它是否包含安全上下文。它从会话对象中检索安全上下文,并将其放置在名为 security context holder 的临时占位符中。如果不存在会话对象,SIF 将创建一个新的安全上下文,并将它放到 security context holder 中。注意:security context holder 位于应用程序的范围内,所以可以被其他的安全过滤器访问。
- SIF 调用过滤器链中的下一个过滤器。
- 其他过滤器可以编辑安全上下文。
- SIF 在过滤器链完成处理后接收控制权。
- SIF 检查其他的过滤器是否在其处理过程中更改了安全上下文(比如,APF 可能将用户详细信息存储在安全上下文中)。如果是的话,它将更新会话对象中的安全上下文。就是说在过滤器链处理过程中,对安全上下文的任何更改现在都保存在会话对象中。
APF 如何对用户进行身份验证
图 3 展示了 APF 对用户进行身份验证所涉及到的步骤:
图 3. APF 对用户进行身份验证
现在仔细考虑以下这些步骤:
- 过滤器链中前面的过滤器向 APF 发送请求、响应和过滤链对象。
- APF 使用从请求对象中获得的用户名、密码以及其他信息创建身份验证标记。
- APF 将身份验证标记传递给身份验证管理器。
- 身份验证管理器可能包含一个或更多身份验证提供者。每个提供者恰好支持一种类型的身份验证。管理器检查哪一种提供者支持它从 APF 收到的身份验证标记。
- 身份验证管理器将身份验证标记发送到适合进行身份验证的提供者。
- 身份验证提供者支持从身份验证标记中提取用户名,并将它发送给名为 user cache service 的服务。Acegi 缓存了已经进行过身份验证的用户。该用户下次登录时,Acegi 可以从缓存中加载他或她的详细信息(比如用户名、密码和权限),而不是从后端数据存储中读取数据。这种方法使得性能得到了改善。
- user cache service 检查用户的详细信息是否存在于缓存中。
- user cache service 将用户的详细信息返回给身份验证提供者。如果缓存不包含用户详细信息,则返回 null。
- 身份验证提供者检查缓存服务返回的是用户的详细信息还是 null。
- 如果缓存返回 null,身份验证提供者将用户名(在步骤 6 中提取)发送给另一个名为 user details service 的服务。
- user details service 与包含用户详细信息的后端数据存储通信(如目录服务)。
- user details service 返回用户的详细信息,或者,如果找不到用户详细信息则抛出身份验证异常。
- 如果 user cache service 或者 user details service 返回有效的用户详细信息,身份验证提供者将使用 user cache service 或 user details service 返回的密码来匹配用户提供的安全标记(如密码)。如果找到一个匹配,身份验证提供者将用户的详细信息返回给身份验证管理器。否则的话,则抛出一个身份验证异常。
- 身份验证管理器将用户的详细信息返回给 APF。这样用户就成功地进行了身份验证。
- APF 将用户详细信息保存在 图 2 所示由步骤 3 创建的安全上下文中。
- APF 将控制权传输给过滤器链中的下一个过滤器。
一个简单的 Acegi 应用程序
在本文中,您已经了解了很多关于 Acegi 的知识,所以现在看一下利用您目前学到的知识能做些什么,从而结束本文。对于这个简单的演示,我设计了一个样例应用程序(参见 下载),并对 Acegi 进行了配置以保护它的一些资源。
样例应用程序包含 5 个 JSP 页面:index.jsp、protected1.jsp、protected2.jsp、login.jsp 和 accessDenied.jsp。
index.jsp 是应用程序的欢迎页面。它向用户显示了三个超链接,如图 4 所示:
图 4. 样例应用程序的欢迎页面:
图 4 所示的链接中,其中两个链接指向了被保护的资源(protected1.jsp 和 protected2.jsp),第三个链接指向登录页面(login.jsp)。只有在 Acegi 发现用户没有被授权访问受保护的资源时,才会显示 accessDenied.jsp 页面。
如果用户试图访问任何受保护的页面,样例应用程序将显示登录页面。当用户使用登录页面进入后,应用程序将自动重定向到被请求的受保护资源。
用户可以通过单击欢迎页面中的第三个链接直接请求登录页面。这种情况下,应用程序显示用户可以进入系统的登录页面。进入系统以后,应用程序将用户重定向到 protected1.jsp,它是用户进入系统而没有请求特定的受保护资源时显示的默认资源。
配置样例应用程序
为本文下载的源代码包含一个名为 acegi-config.xml 的 XML 配置文件,它包含 Acegi 过滤器的配置。根据 安全过滤器的讨论 中的示例,您应该很熟悉这些配置。
我还为样例应用程序编写了一个 web.xml
文件,如清单 8 所示:
清单 8. 样例应用程序的 web.xml 文件
<web-app>
<context-param>
<param-name>contextConfigLocation</param-name>
<param-value>/WEB-INF/acegi-config.xml</param-value>
</context-param>
<filter>
<filter-name>Acegi Filter Chain Proxy</filter-name>
<filter-class>
org.acegisecurity.util.FilterToBeanProxy
</filter-class>
<init-param>
<param-name>targetClass</param-name>
<param-value>
org.acegisecurity.util.FilterChainProxy
</param-value>
</init-param>
</filter>
<filter-mapping>
<filter-name>Acegi Filter Chain Proxy</filter-name>
<url-pattern>/*</url-pattern>
</filter-mapping>
<listener>
<listener-class>
org.springframework.web.context.ContextLoaderListener
</listener-class>
</listener>
</web-app>
|
web.xml 文件配置如下:
acegi-config.xml
文件的 URL 位于 <context-param>
标记中。
- Acegi 过滤器链代理类的名称位于
<filter>
标记中。
- URL 到 Acegi 过滤器链代理的映射在
<filter-mapping>
标记中。注意:您可以简单地将应用程序的所有 URL(/*
)映射到 Acegi 过滤器链代理。Acegi 将对映射到 Acegi 过滤器链代理上的所有 URL 应用安全性。
- 应用程序上下文加载程序位于
<listener>
标记中,它将加载 Spring 的 IOC 框架。
部署并运行应用程序
部署并运行样例应用程序非常的简单。只需要完成两件事情:
- 将 acegisample.war 文件从本教程下载的源代码中复制到安装 Tomcat 的
webapps
目录中。
- 从 Acegi Security System 主页 下载并解压缩 acegi-security-1.0.3.zip。您将找到一个名为 acegi-security-sample-tutorial.war 的样例应用程序。解压缩 war 文件并提取其 WEB-INF/lib 文件夹中所有的 jar 文件。将所有的 JAR 文件从 WEB-INF/lib 文件夹中复制到 theacegisample.war 应用程序的 WEB-INF/lib 文件夹。
现在,您已经为运行样例应用程序做好准备了。启动 Tomcat 并将浏览器指向 http://localhost:8080/acegisample/
。
您将看到 图 4 所示的欢迎页面,但是此时显示的页面是真实的。请继续运行程序,并查看在尝试访问欢迎页面显示的不同链接时会发生什么状况。
结束语
在使用 Acegi 保护 Java 应用程序 系列的第一篇文章中,您了解了 Acegi 安全系统的特性、架构和组件,学习了大量有关 Acegi 安全过滤器的知识,这些过滤器被集成到 Acegi 的安全框架中。您还学习了如何使用 XML 配置文件配置组件依赖关系,并查看了 Acegi 的安全过滤器在样例程序中工作的情形,该应用程序可以实现基于 URL 的安全性。
本文所述的安全技术非常的简单,所以 Acegi 使用这些技术实现安全性。本系列的下一文章将开始介绍 Acegi 的一些较为高级的应用,首先是编写访问控制协议并将其存储到目录服务中。您还将了解到如何配置 Acegi,使它与目录服务交互,从而实现您的访问控制策略。
下载
描述 |
名字 |
大小 |
下载方法 |
本文源代码 |
j-acegi1.zip |
10KB |
HTTP |
参考资料
学习
获得产品和技术
讨论
关于作者
|
|
|
Bilal Siddiqui 是一名电子工程师、XML 顾问,他还是 WaxSys(主要从事电子商务简化)的创建者之一。自从 1995 年毕业于拉合尔工程技术大学(University of Engineering and Technology,Lahore)电子工程专业以后,他就开始为工业控制系统设计各种软件解决方案。稍后,他致力于 XML 方面并使用他在 C++ 编程中取得的经验来构建基于 Web 和 WAP 的 XML 处理工具、服务器端解析方案和服务应用程序。Bilal 是一名技术推广者,并且是一名多产的技术作家。
|
来自:http://www.cnblogs.com/amboyna/archive/2008/03/25/1122079.html
最近项目使用Acegi作为安全框架的实现,效果不错,就写了这篇文章作为总结.
对于任何一个完整的应用系统,完善的认证和授权机制是必不可少的。在基于SpringFramework的WEB应用中,
我们可以使用Acegi作为安全架构的实现。本文将介绍如何在基于Spring构架的Web应用中使用Acegi,并且详细介
绍如何配置和扩展Acegi框架以适应实际需要。
文章和代码下载:
http://www.blogjava.net/Files/youlq/Acegi.zip
注意:许多朋友在部署上遇到一些麻烦,所以我将可以部署的完整的war文件传上来,注意:java代码在acegi-sample.war\WEB-INF 目录下,例子需要Mysql,建库脚本在acegi-sample.war\db目录下。
acegi-sample.part1.rar
acegi-sample.part2.rar
acegi-sample.part3.rar
acegi-sample.part4.rar
附注:
有些朋友询问我如何部署文中的例子,在此再次说明一下(文章中已经有提到):
Mysql的建表脚本在db目录下
为了减小体积,已经将WEB-INF\lib下的依赖包删除,请自行下载以下包,并拷贝至WEB-INF\lib下:
spring-1.2.4.jar
acegi-security-0.8.3.jar
aopalliance-1.0.jar
c3p0-0.9.0.jar
commons-logging-1.0.4.jar
ehcache-1.1.jar
log4j-1.2.8.jar
mysql-connector-java-3.1.10-bin.jar
oro-2.0.8.jar
提示:
acegi-security-0.8.3.jar
aopalliance-1.0.jar
c3p0-0.9.0.jar
commons-logging-1.0.4.jar
ehcache-1.1.jar
log4j-1.2.8.jar
oro-2.0.8.jar
可以在acegi-security-0.8.3.zip所带的acegi-security-sample-contacts-filter.war中找到。
spring-1.2.4.jar
mysql-connector-java-3.1.10-bin.jar
要分别到springframework和mysql网站下载。
来自:http://www.blogjava.net/youlq/archive/2005/12/06/22678.html
1 Acegi官方发布版的下载和安装
开发者可以通过http://sourceforge.net/projects/acegisecurity或http://acegisecurity.org/下载到Acegi官方发布版,比如acegi-security-1.x.zip。图4-4展示了SF中Acegi项目的首页,它提供了下载Acegi(Spring Security)的入口。
图4-4 http://sourceforge.net/projects/acegisecurity首页
在单击图4-4中的下载(“Download Acegi Security System for Spring”)超链接后,开发者进而能够下载到最新的Acegi官方发布包。此时,建议开发者同时将acegi-security-1.x.zip、acegi-security-1.x-src.zip下载到本地,前者包含了Jar存档和若干Acegi使能应用,而后者仅仅包含了Acegi项目的源代码。
在下载到Acegi官方发布版后,通过解压acegi-security-1.x.zip,开发者能够浏览到如图4-5所示的类似内容。
图4-5 acegi-security-1.x.zip包含的内容
通常,大部分Acegi安全性项目仅仅需要使用到acegi-security-1.x.jar存档,这是Acegi的核心包,任何Acegi使能项目都需要使用到它。如果项目打算采用Java SE 5引入的Annotation注释支持,则还需要将acegi-security-tiger-1.x.jar添加到WEB-INF/lib中。如果开发者在使用Acegi提供的容器适配器支持,则还需要将acegi-security-catalina-1.x.jar(针对Tomcat)、acegi-security-jboss-1.x.jar(针对JBoss)、acegi-security-jetty-1.x.jar(针对Jetty)、acegi-security-resin-1.x.jar(针对Resin)等Jar存档复制到相应的位置,至于这些Jar包的具体使用,本书将在第10章详细阐述。
另外,acegi-security-sample-contacts-filter.war、acegi-security-sample-tutorial.war是两个直接可部署到Java EE容器(Tomcat容器)中的Web应用。
2 Subversion中的Acegi源码下载和安装
如今,Acegi基代码采用Subversion管理。开发者通过如图4-6所示的Web页面能够获得Subversion下载地址(http://sourceforge.net/svn/?group_id=104215)。
图4-6 获得下载Acegi基代码地址的Web页面
事实上,Acegi(Spring Security)基代码本身就是一个Eclipse Java项目,而且它的构建、管理工作采用了Maven 1.x/2.x(http://maven.apache.org/)。开发者可以借助Eclipse Subversive插件从Subversion存储源获得Acegi的最新基代码。图4-7展示了Subversive内置的SVN Repository Exploring。
图4-7 Subversive插件使用截图
一旦在下载完成Acegi(Spring Security)基代码后,开发者将能够持续监控到Acegi项目的最新情况,比如获得Acegi持续更新的基代码、Acegi官方文档,图4-8展示了相应的使用截图。
图4-8 持续更新Acegi基代码
3 有关Acegi的权威去处
其一,开发者可以去订阅acegisecurity-developer@lists.sourceforge.net邮件列表,图4-9展示了订阅这一邮件列表的入口。Acegi开发团队积极参与到这一邮件列表中,因此开发者从这一邮件列表能够获得Acegi的最新进展。
图4-9 订阅Acegi开发者邮件列表
其二,Acegi官方论坛(http://forum.springframework.org/),图4-10展示了论坛截图。
图4-10 Acegi官方论坛
开发者可以通过许多渠道获得一手的Acegi知识、开发和部署经验。
5 小结
本章围绕Acegi(Spring Security)的认证策略进行了阐述,比如基于过滤器的设计、与认证源解耦、AcegiSecurityException异常体系等。另外,我们还针对Acegi发布版和基代码的下载进行了简要介绍。
下章将深入到Acegi支持的各种认证机制中。
【参考及推荐资料】
l http://acegisecurity.org/
l http://sourceforge.net/projects/acegisecurity
l http://www.polarion.org/index.php?page=overview&project=subversive
来自:http://book.csdn.net/bookfiles/310/10031012826.shtml
如何实施内容管理解决方案呢?让我们借鉴一下如下做法。
IBM内容管理第8版(CM V8)提供了一套可靠的、易升级的、强劲的企业内容管理体系架构,它也同时提供了强劲的、安全的和高扩展能力的服务,使得企业用户能非常容易地访问电子商务的内容。这种体系架构能够通过具有强劲、灵活的数据模型的单一存储库来支持不同的、异构的内容管理技术,包括文档管理、数字媒体资产管理、网站内容管理等,这种数据模型使得我们能非常容易地在不同系统之间实现内容共享,从而提高了业务处理流程效率。
IBM CM V8也提供了各种特性来满足对内容整个生命周期的管理,包括捕获、存储、组织、流转、归档、跟踪和销毁。
IBM内容管理解决方案平台基于用户对于内容进行管理的需求而开发,并且IBM内容管理产品第8版本有了更多的新功能。
高扩展性的体系架构
CM服务器由一个索引服务器(Library Server)、一个或多个对象服务器(Object Server或称Resource Manager)和一个或多个客户程序构成,通过提供具有专利技术的三角形架构的体系结构,使得系统能依据需求随意扩展。资源管理服务器能分布在网络上的任何地方,并且通过统一的索引服务器而实现集中管理。它以坚实的技术实力为基础,融合了基于SQL标准的关系数据库。系统具有很强的扩容性,可以由单机系统扩容到SMP并行多处理器系统和SP超级并行处理计算机系统都可以适用。通过实现分布式基于对象的两阶段提交技术,确保索引数据和媒体数据的参照完整性,从而不会出现孤岛式的内容对象。
灵活、强劲的数据模型
IBM CM V8提供了灵活、强劲的数据模型,通过CM V8的数据模型,能够非常容易地实现任何复杂和多变的元数据标准。简单来说,任何用XML格式描述的元数据信息,都可以在CM中得到快速实现,并且灵活地进行改变,从而充分和容易地通过客户化来实现各种元数据标准,而不需要任何系统设计和编程工作,且实现系统性能的最优化。
高效的查询访问能力
CM提供了多种查询方法,包括参数检索、全文检索以及面向中文的中文智能检索,并且CM能支持用户同时和分开使用这几种检索方法。
通过参数检索,用户能快速访问所有元数据信息,象客户名称、客户号等。全文检索能对已建立了文本索引的内容进行自由文本检索,从而快速查找到相关的文档;而中文智能检索能力将基于中文语义进行检索,支持包括近义词、上下位概念、同一名称等智能检索。
企业范围的内容整合
企业都有许多的信息孤岛在管理着数据和数字内容,这些解决方案都有它们自己的方式来访问信息,包括语法、语义和接口都不一样。定制的应用开发需要从这些分离的数据源和专门的过滤方法来收集合访问所有的信息。CM通过提供信息整合的体系架构来实现单一入口的针对内容存储库的访问接口。
分布式存储和多级存储管理
CM的资源管理器是对象存储库,一个索引服务器能支持多个本地和远程的资源管理器,用户通过索引服务器来对对象进行存储和访问,资源管理器基于WebSphere的最新技术建立,通过标准的HTTP、FTP和FILE协议来进行通讯,支持基于Internet的应用。资源管理器和索引服务器合作来确保数据完整性和一致性,资源管理器通过数据库来记录对象的位置,同时资源管理器提供了缓存能力来提高对象访问的性能。
文档流转
CM提供了易于使用的强劲的文档流转功能,能支持以内容为基础的业务流转,文档流转是CM内置的工作流服务,包含了很高的性能、很少的脚本、整合的权限控制列表以及强劲和灵活的工作流建模能力。文档流转功能在CM客户端都得到了体现,并且用户可以非常容易地定制工作流应用。用户可以通过C++或Java,JavaBeans来实现工作流的操作和系统管理功能。
更高级的工作流
IBM CM提供了更高级的工作流功能,来实现企业范围灵活的文档流转功能,EIP高级工作流支持并行流转、数据变量和子进程,并且提供了将CM、CM Ondemand、CM ImagePlus等存储库中的内容进行集中流转的能力。
高层次的应用开发工具
CM整个系统的设计完全围绕着对象管理来进行的,所以不管是数据模型,还是权限管理以及开发接口,我们都可以通过对象管理的方法DDO/XDO来进行设置和开发,而不需要面向SQL和底层的表结构来进行开发,也不需要针对底层的存储管理API来进行开发。我们只需要通过统一的、满足DDO/XDO标准的管理模式和API来进行内容管理,包括编目、权限、存储、迁移、流程控制等等。
开放标准的全面支持
从Web环境、开发语言到网络协议、操作系统,乃至数据库和应用软件,CM全部遵循通用的国际或行业标准,如开发语言:C++、Java / Java Beans、ActiveX;传输连接标准:XML、HTTP、RTSP、JDBC;格式标准:TIFF等所有图像格式、 HTML、Office、MPEG(1、2、4)、Quicktime、AVI、MP3等;协议标准:CORBA、ODMA、LDAP、SQL和Xquery;系统平台:Sun Solaris、Windows、AIX、S/390、AS/400;其它数据源:Oracle、DB2、Microsft、Sybase和其它内容管理系统。
实施中的关键环节
就目前一般的内容管理应用来看,应该十分重视有效地采集、管理、应用各种非结构化和半结构化的资源,并且将它们与企业的其他业务系统中的各种结构化信息集成起来。
成立专门小组实施内容管理策略
企业在制定内容管理方案时,应考虑到设计、实施、质量监控的问题,人员的组成应涉及到战略、信息技术、业务等部门,同时还要有企业的主管领导参与,以使决策更加有效和迅速地执行。 还要确立总体的项目计划、实施策略、项目制度,以指导项目的进行。
梳理所有内容
在这个阶段中,要对企业中现有的内容资源进行细致的盘清,确定企业内容资源的价值、数量以及获取这些内容的难易程度。一般可以从三个方面着手:整理、清查已经公开发布过的各种文档;确定各种尚未公开发布过的各种知识资源;仔细地清点企业从外界得到的各种内容资源,以此对企业内部的内容资产有一个全面的了解和把握,这是确定内容管理系统内容和技术架构中非常重要的一个环节。
确定内外部内容需求
此间要深入研究企业内部和外部对内容的各种需求,使业务可以得到更好的支撑。对于企业内部来说,从内容管理中得到较多的是企业决策管理者、销售和市场部门、客户服务和技术支持部门、研究与开发部门的资源。对于企业外部来说,内容管理应该侧重挖掘潜在和现有的客户、机构和个人投资者,以及能够对公司产生影响的权威人士等信息。依据他们对于内容的需求,就可以制定出知识在企业业务中的需求蓝图,来描述内容、业务、人员之间的关系。
确定策略确定产品确定实施计划
满足各部门和人员的内容需求,需要从内容建设和建设内容管理系统入手。内容建设包括是否购买外部的内容,怎样将现有的内容重新整理,以满足新的需求或者满足不同人员的需求,怎样进行研发创新等;建设内容管理系统,并采取切实可行的措施,以确保应用。这样,就首先要确定内容管理系统的建设策略,然后要进行产品和技术方案的选择。在技术路线确定以后,可根据产品的特点、内容管理的要求,制定出系统的实施计划,以指导系统的建设。
建设好内容管理系统确保应用
为了确保内容管理系统的有效应用,可以事先选定一二个部门进行试点。此间,要注意多种内容获取渠道的集成,仅将内容存储好是远远不够的,用户应该能通过多种渠道、多种形式获得所需的信息;还要注意与其它系统进行有效的集成,包括与OA系统、邮件系统、ERP、CRM等业务系统的集成,同时在集成时,还要综合考虑需求的强烈程度、成本等诸多因素,按收益成本最大化的原则进行集成。
一天,一只兔子在山洞前写文章,一只狼走了过来,问:“兔子啊,你在干什么?”答曰:“写文章。”问:“什么题目?”答曰:“《浅谈兔子是怎样吃掉狼的》。”狼哈哈大笑,表示不信,于是兔子把狼领进山洞。过了一会,兔子独自走出山洞,继续写文章。一只野猪走了过来,问:“兔子你在写什么?”答:“文 章。”问:“题目是什么?”答:“《浅谈兔子是如何把野猪吃掉的》。”野猪不信,于是同样的事情发生。
最后,在山洞里,一只狮子在一堆白骨之间,满意的剔着牙读着兔子交给它的文章,题目:“《一只动物,能力大小关键要看你的老板是谁》。”
这只兔子有次不小心告诉了他的一个兔子朋友,这消息逐渐在森林中传播;狮子知道后非常生气,他告诉兔子:“如果这个星期没有食物进洞,我就吃你。”于是兔子继续在洞口写文章。一只小鹿走过来,“兔子,你在干什么啊?”“写文章”“什么题目”““《浅谈兔子是怎样吃掉狼的》”。“哈哈,这个事情全森林都知道啊,你别胡弄我了,我是不会进洞的”。“我马上要退休了,狮子说要找个人顶替我,难道你不想这篇文章的兔子变成小鹿么”。小鹿想了想,终于忍不住诱惑,跟随兔子走进洞里。过了一会,兔子独自走出山洞,继续写文章。一只小马走过来,同样是事情发生了。
最后,在山洞里,一只狮子在一堆白骨之间,满意的剔着牙读着兔子交给它的文章,题目是:《如何发展下线动物为老板提供食物》
随着时间的推移,狮子越长越大,兔子的食物已远远不能填饱肚子。一日,他告诉兔子:“我的食物量要加倍,例如:原来4天一只小鹿,现在要2天一只,如果一周之内改变不了局面我就吃你。于是,兔子离开洞口,跑进森林深处,他见到一只狼,“你相信兔子能轻松吃掉狼吗”。狼哈哈大笑,表示不信,于是兔子把狼领进山洞。过了一会,兔子独自走出山洞,继续进入森林深处。这回他碰到一只野猪----“你相信兔子能轻松吃掉野猪吗” 。野猪不信,于是同样的事情发生了。原来森林深处的动物并不知道兔子和狮子的故事。
最后,在山洞里,一只狮子在一堆白骨之间,满意的剔着牙读着兔子交给它的文章,题目是:《如何实现由坐商到行商的转型为老板提供更多的食物》
时间飞快,转眼之间,兔子在森林里的名气越来越大,因为大家都知道它有一个很历害的老板。这只小兔开始横行霸道,欺上欺下,没有动物敢惹。它时时想起和乌龟赛跑的羞辱。它找到乌龟说:“三天之内,见我老板!”扬长而去。乌龟难过的哭了,这时却碰到了一位猎人,乌龟把这事告诉了他,猎人哈哈大笑。于是森林里发生了一件重大事情,猎人披着狮子皮和乌龟一起在吃兔子火锅。
地下丢了半张纸片歪歪扭扭的写着:山外青山楼外楼,强中还有强中手啊!!
在很长一段时间里森林里恢复了往日的宁静,兔子吃狼的故事似乎快要被大家忘记了,不过一只年轻的老虎在听说了这个故事后,被激发了灵感。于是他抓住了一只羚羊,对羚羊说,如果你可以象以前的兔子那样为我带来食物那我就不吃你。于是,羚羊无奈的答应了老虎,而老虎也悠然自得的进了山洞。可是三天过去了,也没有见羚羊领一只动物进洞。他实在憋不住了,想出来看看情况。羚羊早已不在了,他异常愤怒。
正在他暴跳如雷的时候突然发现了羚羊写的一篇文章,题目是:《想要做好老板先要懂得怎样留住员工》。
1)机器思维
优秀的程序员最擅长和电脑程序打交道,并通过代码去控制反馈。而管理需要和人打交道,需要收集人的反馈。电脑是按逻辑来执行的,而人却要复杂很多,特别是团队中有女性成员,挑战难度就更大。由于长期和电脑接触,很多程序员缺乏和别人沟通的技巧,或者说情商相对较低。这在管理上是比较致命的缺点。
2)BUG思维
优秀的程序员追求完美,看自己或者别人代码时第一反应是看什么地方可能有BUG, 管理时如果带着BUG思维,就会只看到别人的不足和错误,而不去表扬其有进步的地方。(完美思维的坏处还有一个,就是过于关注细节)如果方向和前提有问题,过于关注细节反而会带来延误。
3)工匠思维
程序员靠手艺吃饭,创业总是会碰到各种困难,在碰到困境的时候程序员出身的创业者是有退路的,大不了我再回去写程序搞技术好了。创业最需要的就是坚持,需要一种永不言弃的精神气,不能坚持到底,也就不能收获果实。
4)大侠思维
以技术创业起家的容易迷信技术,忽视市场,忽视管理,总以为只有自己的是最好的。遗憾的是技术变迁实在太快,一时的先进不能代表永远的先进。先进的技术也不一定就是致胜的法宝。
5)边界思维
程序员设计代码和系统时,常常会考虑要处理边界和异常。反映到思维习惯上,就是遇到问题,就会全面的思考各种情况。这是很好的优点,但做事业时,这有时候反而会是缺点。
上面五类有不少具体例子,大家也可以看看自己的思维习惯里面是不是这样?
习惯是很难改变的,最好的处理方式是找到搭档,能弥补自己的不足,这样成功的概率才会加大。
来自:http://www.blog.edu.cn/user3/KingThie/archives/2007/1822533.shtml
在eclipse中,启动run on server时报错:
Resource is out of sync with the file system: '/Test_1_Struts_Spring_Hibernate/WebContent/WEB-INF/.struts-config.xml.strutside'.
查阅资料后发现这是文件系统不同步的问题,是因为在eclipse之外对工程中的resource进行修改引起的;但是,有时没有在eclipse之外进行修改,也会报类似的错误。
解决办法:需要手动刷新一下资源管理器。
(1)在eclipse中,工程目录右键,选择F5(refresh)
(2)设置eclipse自动刷新。
通过Window->Preferences->General->Workspace,选中Refresh automatically。
来自:
http://hi.baidu.com/proglife/blog/item/0c14d0d9ad404e2910df9b3a.html
Oracle提供了两个脚本dbstart和dbshut用来启动和关闭数据库.
这两个脚本首先读取oratab(/etc/oratab)文件来决定哪个数据库是需要自动启动和关闭,然后启动和关闭那些数据库,
oratab文件通过root.sh创建.
[oracle@chicago oracle]$ cat /etc/oratab
#
# This file is used by ORACLE utilities. It is created by root.sh
# and updated by the Database Configuration Assistant when creating
# a database.
# A colon, ':', is used as the field terminator. A new line terminates
# the entry. Lines beginning with a pound sign, '#', are comments.
#
# Entries are of the form:
# $ORACLE_SID:$ORACLE_HOME:<N|Y>:
#
# The first and second fields are the system identifier and home
# directory of the database respectively. The third filed indicates
# to the dbstart utility that the database should , "Y", or should not,
# "N", be brought up at system boot time.
#
# Multiple entries with the same $ORACLE_SID are not allowed.
#
#
orcl:/u01/app/oracle/oracle/product/10.2.0/db_1:Y
不过,dbstart/dbshut脚本中都包含有错误.
需要修改ORACLE_HOME_LISTNER=$ORACLE_HOME
[oracle@chicago oracle]$ dbstart
ORACLE_HOME_LISTNER is not SET, unable to auto-start Oracle Net Listener
Usage: /u01/app/oracle/oracle/product/10.2.0/db_1/bin/dbstart ORACLE_HOME
[oracle@chicago oracle]$ vi $ORACLE_HOME/bin/dbstart
:
#
# $Id: dbstart.sh.pp 25-may-2005.14:52:00 vikrkuma Exp $
# Copyright (c) 1991, 2005, Oracle. All rights reserved.
#
###################################
#
# usage: dbstart $ORACLE_HOME
#
# This script is used to start ORACLE from /etc/rc(.local).
# It should ONLY be executed as part of the system boot procedure.
#
# This script will start all databases listed in the oratab file
# whose third field is a "Y". If the third field is set to "Y" and
# there is no ORACLE_SID for an entry (the first field is a *),
# then this script will ignore that entry.
#
# This script requires that ASM ORACLE_SID's start with a +, and
# that non-ASM instance ORACLE_SID's do not start with a +.
#
# If ASM instances are to be started with this script, it cannot
# be used inside an rc*.d directory, and should be invoked from
# rc.local only. Otherwise, the CSS service may not be available
# yet, and this script will block init from completing the boot
# cycle.
#
# If you want dbstart to auto-start a single-instance database that uses
# an ASM server that is auto-started by CRS (this is the default behavior
# for an ASM cluster), you must change the database's ORATAB entry to use
# a third field of "W" and the ASM's ORATAB entry to use a third field of "N".
# These values specify that dbstart auto-starts the database only after
# the ASM instance is up and running.
#
# Note:
# Use ORACLE_TRACE=T for tracing this script.
#
# The progress log for each instance bringup plus Error and Warning message[s]
# are logged in file $ORACLE_HOME/startup.log. The error messages related to
# instance bringup are also logged to syslog (system log module).
# The Listener log is located at $ORACLE_HOME_LISTNER/listener.log
#
# To configure:
# 1) Set ORATAB:
# On Solaris
# ORATAB=/var/opt/oracle/oratab
# All other UNIX platforms
# ORATAB=/etc/oratab
#
# 2) Update $ORATAB/oratab with Database Instances that need to be started up.
# Entries are of the form:
# $ORACLE_SID:$ORACLE_HOME:<N|Y|W>:
# An example entry:
# main:/usr/lib/oracle/emagent_10g:Y
#
# Overall algorithm:
# 1) Bring up all ASM instances with 'Y' entry in status field in oratab entry
# 2) Bring up all Database instances with 'Y' entry in status field in
# oratab entry
# 3) If there are Database instances with 'W' entry in status field
# then
# iterate over all ASM instances (irrespective of 'Y' or 'N') AND
# wait for all of them to be started
# fi
# 4) Bring up all Database instances with 'W' entry in status field in
# oratab entry
#
#####################################
LOGMSG="logger -puser.alert -s "
trap 'exit' 1 2 3
# for script tracing
case $ORACLE_TRACE in
T) set -x ;;
esac
# Set path if path not set (if called from /etc/rc)
case $PATH in
"") PATH=/bin:/usr/bin:/etc
export PATH ;;
esac
# Save LD_LIBRARY_PATH
SAVE_LLP=$LD_LIBRARY_PATH
# First argument is used to bring up Oracle Net Listener
ORACLE_HOME_LISTNER=$ORACLE_HOME
if [ ! $ORACLE_HOME_LISTNER ] ; then
echo "ORACLE_HOME_LISTNER is not SET, unable to auto-start Oracle Net Listener"
echo "Usage: $0 ORACLE_HOME"
else
LOG=$ORACLE_HOME_LISTNER/listener.log
# Start Oracle Net Listener
if [ -x $ORACLE_HOME_LISTNER/bin/tnslsnr ] ; then
echo "$0: Starting Oracle Net Listener" >> $LOG 2>&1
"/u01/app/oracle/oracle/product/10.2.0/db_1/bin/dbstart" 461L, 13926C written
[oracle@chicago oracle]$ dbstart
Processing Database instance "orcl": log file /u01/app/oracle/oracle/product/10.2.0/db_1/startup.log
[oracle@chicago oracle]$ dbshut
ORACLE_HOME_LISTNER is not SET, unable to auto-stop Oracle Net Listener
Usage: /u01/app/oracle/oracle/product/10.2.0/db_1/bin/dbshut ORACLE_HOME
Processing Database instance "orcl": log file /u01/app/oracle/oracle/product/10.2.0/db_1/shutdown.log
[oracle@chicago oracle]$ vi $ORACLE_HOME/bin/dbshut
:
#
# $Id: dbshut.sh.pp 11-may-2005.19:37:00 vikrkuma Exp $
# Copyright (c) 1991, 2005, Oracle. All rights reserved.
#
###################################
#
# usage: dbshut $ORACLE_HOME
#
# This script is used to shutdown ORACLE from /etc/rc(.local).
# It should ONLY be executed as part of the system boot procedure.
#
# This script will shutdown all databases listed in the oratab file
# whose third field is a "Y" or "W". If the third field is set to "Y" and
# there is no ORACLE_SID for an entry (the first field is a *),
# then this script will ignore that entry.
#
# This script requires that ASM ORACLE_SID's start with a +, and
# that non-ASM instance ORACLE_SID's do not start with a +.
#
# Note:
# Use ORACLE_TRACE=T for tracing this script.
# Oracle Net Listener is also shutdown using this script.
#
# The progress log for each instance shutdown is logged in file
# $ORACLE_HOME/shutdown.log.
#
# To configure:
# 1) Set ORATAB:
# On Solaris
# ORATAB=/var/opt/oracle/oratab
# All other UNIX platforms
# ORATAB=/etc/oratab
#
# 2) Update $ORATAB/oratab with Database Instances that need to be shutdown.
# Entries are of the form:
# $ORACLE_SID:$ORACLE_HOME:<N|Y>:
# An example entry:
# main:/usr/lib/oracle/emagent_10g:Y
#
# Note:
# Use ORACLE_TRACE=T for tracing this script.
# Oracle Net Listener is NOT shutdown using this script.
#
# The progress log for each instance shutdown is logged in file
# $ORACLE_HOME/shutdown.log.
#
# To configure:
# 1) Set ORATAB:
# On Solaris
# ORATAB=/var/opt/oracle/oratab
# All other UNIX platforms
# ORATAB=/etc/oratab
#
# 2) Update $ORATAB/oratab with Database Instances that need to be shutdown.
# Entries are of the form:
# $ORACLE_SID:$ORACLE_HOME:<N|Y>:
# An example entry:
# main:/usr/lib/oracle/emagent_10g:Y
#
#####################################
trap 'exit' 1 2 3
case $ORACLE_TRACE in
T) set -x ;;
esac
# Set path if path not set (if called from /etc/rc)
case $PATH in
"") PATH=/bin:/usr/bin:/etc
export PATH ;;
esac
# Save LD_LIBRARY_PATH
SAVE_LLP=$LD_LIBRARY_PATH
# The this to bring down Oracle Net Listener
ORACLE_HOME_LISTNER=$ORACLE_HOME
if [ ! $ORACLE_HOME_LISTNER ] ; then
echo "ORACLE_HOME_LISTNER is not SET, unable to auto-stop Oracle Net Listener"
echo "Usage: $0 ORACLE_HOME"
else
LOG=$ORACLE_HOME_LISTNER/listener.log
# Stop Oracle Net Listener
if [ -f $ORACLE_HOME_LISTNER/bin/tnslsnr ] ; then
"/u01/app/oracle/oracle/product/10.2.0/db_1/bin/dbshut" 246L, 6592C written
[oracle@chicago oracle]$ dbstart
Processing Database instance "orcl": log file /u01/app/oracle/oracle/product/10.2.0/db_1/startup.log
[oracle@chicago oracle]$ dbshut
Processing Database instance "orcl": log file /u01/app/oracle/oracle/product/10.2.0/db_1/shutdown.log
[oracle@chicago oracle]$
来自:http://benbo.itpub.net/post/26034/311306
摘要: Ubuntu 8.04 LTS(长期支持版)免费光盘已经接受预定! https://shipit.ubuntu.com/有刻录机的最好自己刻盘,体谅人家.
总纲:分以下几部分工作 (更新截至4月27日,决定停止更新,文章写长了就没意思了,眼花,啰嗦)
作者 pengkuny
原始链接 http://www.pengkuny.com/post/Install_Ubuntu8.04.html
...
阅读全文
I come from a MySQL background, and I have been given the challenge
of learning Oracle. I can’t just play around with our customers’
databases, but I remembered that Paul Vallée
said that there is nothing wrong with learning on company time. So I
decided to install my own Oracle database, which I’ll be free to
destroy in every way I can think of… and of course, free to bring it
back to life. Recovering from crashes will probably be the most
difficult part of my adventures in the Oracle world, but let’s take one
step at a time, shall we?
Now, onto Oracle 11g (beta 5) on Ubuntu 7.04 (Feisty Fawn).
One little issue is that Ubuntu is unsupported by Oracle. So, through
this text, we will trick the Oracle installer into thinking it’s
actually running on a Red Hat box.
Step Zero
This tutorial was based on a document which can be found here. I have adapted it for Oracle 11g.
Get a copy of Ubuntu 7.04 and install on a machine. I’m using the
32-bit version here (as well as for Oracle). Next, make sure your
system is up-to-date. A simple apt-get update
followed by a apt-get upgrade
will do the trick, although you may prefer using the GUI Synaptic
Package Manager — it’s entirely up to you what method you choose.
However, I much prefer to use the command line.
As you go through updates, sometimes a reboot will be needed
(usually to boot from a newer, recently-updated kernel). Sometimes
it’ll just ask you to restart your web browser or some other program as
a new version is installed.
It’s important to have a few gigabytes of free disk space and a
total of 1 GB of memory before starting this. This 1 GB of memory can
be RAM alone or the combination of RAM and swap space. Of course, since
everything runs faster when in RAM, the more of it, the better.
Very important: get Java running before trying to move on. My guess
is that almost any JRE (java runtime) or JDK (java development kit)
will work. I’m not sure which is the minimum version required: I used
Sun JDK 1.5.
Step One
Install some system requirements. There are a few packages that I
had to install on this box (it was a recently installed system which
didn’t have all these packages). After several attempts of installing
Oracle, the equivalent command-line for installing all the necessary
packages at once was something like this:
# apt-get install gcc make binutils lesstif2 libc6 libc6-dev rpm libmotif3 libaio libstdc++5 gawk alien libg++2.8.1.3-glibc2.2 ksh gcc-3.3 g++-3.3 libstdc++5
It’s possible that when installing the packages mentioned above, the
installer will install some other prerequisites as well, as these
packages themselves may have prerequisites.
Step Two
Choose where you are going to install your Oracle 11g server and create the ORACLE_BASE
directory. This is the place where Oracle will be installed. Make sure there is at least
3 GB on the partition/mount point before moving to the next step. After
installed, my basic installation took about 3.4 GB on disk (without the
starter database!). As your database grows, it will need more space.
Reserve a total of at least 6 GB for the unpacked installer and the
basic installation. You can get rid of the installer files afterwards.
# mkdir -p /u01/app/oracle
Step Three
Add a few users and change groups to make the installer more
comfortable. Remember, we are tricking the installer to think it’s
installing on a Red Hat box.
# addgroup oinstall
# addgroup dba
# addgroup nobody
# useradd -g oinstall -G dba -p password -d /home/oracle -s /bin/bash oracle
# usermod -g nobody nobody
The usermod
command is needed since because when running, the installer looks for a user called nobody
which is part of a group named nobody
(in Ubuntu, the user nobody
it’s assigned to nogroup
by default).
Step Four
Make some symlinks. Apparently, the installer uses absolute paths, so it must find the binaries in the right places.
# ln -s /usr/bin/awk /bin/awk
# ln -s /usr/bin/rpm /bin/rpm
# ln -s /usr/bin/basename /bin/basename
Step Five
We need to mimic the /etc/rc.d
directory structure of a Red Hat box. We do this with more symlinks:
# mkdir /etc/rc.d
# ln -s /etc/rc0.d /etc/rc.d/rc0.d
# ln -s /etc/rc2.d /etc/rc.d/rc2.d
# ln -s /etc/rc3.d /etc/rc.d/rc3.d
# ln -s /etc/rc4.d /etc/rc.d/rc4.d
# ln -s /etc/rc5.d /etc/rc.d/rc5.d
# ln -s /etc/rc6.d /etc/rc.d/rc6.d
# ln -s /etc/init.d /etc/rc.d/init.d
Step Six
I’ve created a file called /etc/redhat-release
and put only one line on it. The same can be achieved by issuing the following as root:
echo "Red Hat Linux release 4" > /etc/redhat-release
Step Seven
We tweak the system default limits on a few items. The shared-memory
are specially important, since Oracle relies on shared memory for
process communications. There is a file called /etc/sysctl.conf
and it should have these lines on it:
fs.file-max = 65535
kernel.shmall = 2097152
kernel.shmmax = 2147483648
kernel.shmmni = 4096
kernel.sem = 250 32000 100 128
net.ipv4.ip_local_port_range = 1024 65000
net.core.rmem_default = 1048576
net.core.rmem_max = 1048576
net.core.wmem_default = 262144
net.core.wmem_max = 262144
Now that they are in a config file, these limits will be issued
automatically at the next boot sequence. For now, we need to make the
system re-read the config file:
# sysctl -p
Now, what do those parameters and values actually mean?
fs.file-max
sets the maximum number of open files that can be handled by the Linux kernel.
kernel.shmall
determines the total amount of shared
memory to be allocated in pages. In this example, I’ve set it to 8GB,
which is way above the amount of memory I can handle in my box, even
with swap.
kernel.shmmax
controls the maximum amount of memory to be allocated for shared memory which in this example is 2GB.
kernel.shmmni
defines the maximum number of segments system-wide.
net.core.rmem_default
and net.core.rmem_max
define the default and maximum read buffer queue for network operations (1 MB in this example)
net.core.wmem_default
and net.core.wmem_max
define the default and maximum write buffer queue for network operations (256 KB in this example)
net.ipv4.ip_local_port_range
tells the kernel the port ranges that will be used for outbound connections.
kernel.sem
has four parameters:
SEMMSL
- semaphores per array
SEMMNS
- max semaphores system-wide (SEMMNI*SEMMSL
)
SEMOPM
- max operations per semop call
SEMMNI
- max number of semaphore arrays
To check your current semaphores configuration, you can run cat /proc/sys/kernel/sem
or ipcs -ls
. On my machine, after the modifications on sysctl.conf
, these commands output:
# cat /proc/sys/kernel/sem
250 32000 100 128
# ipcs -ls
------ Semaphore Limits --------
max number of arrays = 128
max semaphores per array = 250
max semaphores system wide = 32000
max ops per semop call = 100
semaphore max value = 32767
(I really don’t know if these are enough or too much, but I’ll keep you posted.)
For a better understanding of these kernel-tweaking settings, I’d recommend these resources:
Step Eight
Add these lines to /etc/security/limits.conf
, letting the oracle
user use more resources than the defaults allowed. You may notice that
all these values are a power of 2 minus one. When soft limits are
exceeded, you’ll get a warning; the hard limits can’t be exceeded in
any situation: you’ll get an error. I’m not completely sure, but I
think these limits apply to each session/login (and since Oracle
doesn’t exactly log in to the machine, my best guess is these limits
apply per instance running).
oracle soft nproc 2047
oracle hard nproc 16383
oracle soft nofile 1023
oracle hard nofile 65535
Step Nine
Make sure the limits.conf
is being interpreted as the oracle
user logs in by adding these lines to /etc/pam.d/login
. You will want to make sure that is actually happening, since the defaults are way lower and you may get all sorts of problems.
session required /lib/security/pam_limits.so
session required pam_limits.so
Step Ten
Unpack and prepare the installation.
# cd /path/to/zipfile
# unzip linux_11gR1b5_database.zip
(And wait… wait a bit more… go get a cup of coffee…)
After your second cup of coffee, you should have a multi-gigabyte set of files; this is our installer.
# chown -R oracle:oinstall database
# chown -R oracle:oinstall /u01/app/oracle
Step Eleven
Fire up the installer as the oracle
user itself. This is what you will probably see on the output window:
# su - oracle
$ cd /path/to/extracted/zip/file
$ ./runInstaller
Starting Oracle Universal Installer...
Checking Temp space: must be greater than 80 MB. Actual 58633 MB Passed
Checking swap space: must be greater than 150 MB. Actual 2900 MB Passed
Checking monitor: must be configured to display at least 256 colors. Actual 16777216 Passed
Preparing to launch Oracle Universal Installer from /tmp/OraInstall2007-07-11_04-38-56PM. Please wait ...
Oracle Universal Installer, Version 11.1.0.2.0 Production
Copyright (C) 1999, 2007, Oracle. All rights reserved.
ulimit: 1: Illegal option -u
ulimit: 1: Illegal option -u
rpm: To install rpm packages on Debian systems, use alien. See README.Debian.
error: cannot open Packages index using db3 - No such file or directory (2)
error: cannot open Packages database in /var/lib/rpm
rpm: To install rpm packages on Debian systems, use alien. See README.Debian.
error: cannot open Packages index using db3 - No such file or directory (2)
error: cannot open Packages database in /var/lib/rpm
There are a few errors that can be safely ignored: the ulimit
and the RPM-related errors, since the limits don’t restrict the
installer and since we actually don’t have a RPM database on the
machine — we are running on Ubuntu, remember?
After a few moments, you will be prompted to choose where to install
the Oracle server. You’ll notice that I asked the installer to not
create a starter database — I did that later. Choose the Oracle Base
and correct the group if needed. I personally recommend sticking with
the defaults if you are a newbie like me.
As you press the Next button, you will be prompted where to install the Inventory — leave it that way
unless you know what you are doing (if this were the case, you wouldn’t
be reading this text anyways). Also correct the OS group name if needed
and hit Next.
Since I’ve chosen to install the server in the same directory as the oracle
user’s HOME
directory, the installer will issue a warning. I simply ignored it and continued with the installation.
After that warning, I tried to perform some prerequisite tests, and yes — some will fail. Just mark the failed boxes and hit Next (after trying a few times to fix those issues, I’ve decided to call the installer’s bluff and… it worked!)
After all this warning stuff, it’ll ask you to check the list of
products to be installed. I was amazed when I read that 122 different
products would be installed on my box. Hit Next.
Go get some coffee.
And some more coffee.
And even more coffee.
You may like to go to the washroom after so much time drinking
coffee. Remember: I was installing on a 3 GHz machine with 1 GiB of RAM
with SATA2 disks — this box is supposed be blazing fast.
At some point, it will ask you to run some commands as root
. Do that when it asks, since the install depends on a few modifications on the base system (like creating the /etc/oratab
file).
$ sudo -s
Password:
# /u01/app/oracle/oraInventory/orainstRoot.sh
Changing permissions of /u01/app/oracle/oraInventory to 770.
Changing groupname of /u01/app/oracle/oraInventory to oinstall.
The execution of the script is complete
# /u01/app/oracle/product/11.1.0/db_1/root.sh
Running Oracle 11g root.sh script...
The following environment variables are set as:
ORACLE_OWNER= oracle
ORACLE_HOME= /u01/app/oracle/product/11.1.0/db_1
[: 185: ==: unexpected operator
[: 189: ==: unexpected operator
Copying dbhome to /usr/local/bin ...
Copying oraenv to /usr/local/bin ...
Copying coraenv to /usr/local/bin ...
Creating /etc/oratab file...
Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root.sh script.
Now product-specific root actions will be performed.
Finished product-specific root actions.
After these scripts finish their execution (the errors seem to be
ignorable), hit the OK button and you’ll have a window that (probably)
will look like this one:
Just hit OK to get out the installer. The basic installation is… not over yet.
To allow Oracle start on boot-up, create a file called oracledb
(or whatever name you want to call it) and put it in /etc/init.d
with the contents below. This script was copied and pasted from a tutorial by Graham Williams. It will read the /etc/oratab
and fire up any instances it finds.
#!/bin/bash
#
# /etc/init.d/oracledb
#
# Run-level Startup script for the Oracle Instance, Listener, and Web Interface
export ORACLE_HOME=/u01/app/oracle
export PATH=$PATH:$ORACLE_HOME/bin
ORA_OWNR="oracle"
# if the executables do not exist -- display error
if [ ! -f $ORACLE_HOME/bin/dbstart -o ! -d $ORACLE_HOME ]
then
echo "Oracle startup: cannot start"
exit 1
fi
# depending on parameter -- startup, shutdown, restart
# of the instance and listener or usage display
case "$1" in
start)
# Oracle listener and instance startup
echo -n "Starting Oracle: "
su $ORA_OWNR -c "$ORACLE_HOME/bin/lsnrctl start"
su $ORA_OWNR -c $ORACLE_HOME/bin/dbstart
touch /var/lock/oracle
su $ORA_OWNR -c "$ORACLE_HOME/bin/emctl start dbconsole"
echo "OK"
;;
stop)
# Oracle listener and instance shutdown
echo -n "Shutdown Oracle: "
su $ORA_OWNR -c "$ORACLE_HOME/bin/lsnrctl stop"
su $ORA_OWNR -c $ORACLE_HOME/bin/dbshut
rm -f /var/lock/oracle
su $ORA_OWNR -c "$ORACLE_HOME/bin/emctl stop dbconsole"
echo "OK"
;;
reload|restart)
$0 stop
$0 start
;;
*)
echo "Usage: `basename $0` start|stop|restart|reload"
exit 1
esac
exit 0
After saving the file, make it executable
# chmod a+x /etc/init.d/oracledb
and if you want, make it run at every boot:
# update-rc.d oracledb defaults 99
Adding system startup for /etc/init.d/oracledb ...
/etc/rc0.d/K99oracledb -> ../init.d/oracledb
/etc/rc1.d/K99oracledb -> ../init.d/oracledb
/etc/rc6.d/K99oracledb -> ../init.d/oracledb
/etc/rc2.d/S99oracledb -> ../init.d/oracledb
/etc/rc3.d/S99oracledb -> ../init.d/oracledb
/etc/rc4.d/S99oracledb -> ../init.d/oracledb
/etc/rc5.d/S99oracledb -> ../init.d/oracledb
Before finishing, add the following lines to your /etc/profile
. Be careful, since these values are valid system-wide. So make sure
the paths are set according to your particular setup (if you have been
doing everything according to this text, you should be fine).
export ORACLE_BASE=/u01/app/oracle
export ORACLE_HOME=/u01/app/oracle/product/11.1.0/db_1
export ORACLE_SID=ORCL
export PATH=$PATH:/u01/app/oracle/product/11.1.0/db_1/bin
Last operation: add yourself to the dba
group. You can use usermod
or just edit the /etc/groups
file and add your username at the end of the line that starts with dba
(my username is ‘bott’):
dba:x:1002:oracle,bott
If you chose to not create a starter database during your install,
you’ll have to do two extra steps. You should create a listener (with netca
) and after that, create the starter database (also with netca
).
If you chose to have the installer create a database for you, then you
should be fine, since when doing that, it asks for a password for the
default accounts (SYS
, SYSTEM
, and DBSNMP
, SYSMAN
if you choose to install it with the enterprise manager option selected).
If everything has gone well, open a terminal window and, as the oracle
user, type:
$ sqlplus
SQL*Plus: Release 11.1.0.5.0 - Beta on Wed Jul 11 17:11:53 2007
Copyright (c) 1982, 2007, Oracle. All rights reserved.
Enter user-name:
If you see these messages (and I sincerely hope you do) you’re all
set! That means that you have finished a quite long install of Oracle
11g and you are ready to begin destroying it, just as I plan to as I
take my first steps with Oracle. Some might say that going from Oracle
to MySQL would make for an easier transition — I really don’t know, but
I will post further entries on my experiences as I go.
Anyway, I would greatly appreciate your feedback, especially if we
can improve this tutorial so that more people can benefit from it.
Augusto Bott.
comefrom:http://www.phpchina.com/batch.viewlink.php?itemid=14789
1.apt-get install scim scim-modules-socket scim-modules-table scim-pinyin scim-tables-zh scim-gtk2-immodule scim-qtimm
2 im-switch -s scim
3.修改/etc/environment配置文件了.使用vi编辑器打开environment文件,在里面加入这么一行LC_CTYPE=zh_CN.UTF-8,然后保存退出,重新启动系统,使用英文登陆,按下Ctrl+Space,看到输入法图标了吧?
4. reboot
系统就可以使用使用输入法了。
comefrom:http://www.linuxdiyf.com/viewarticle.php?id=59990
NND,郁闷的事情总是一件接着一件, 今天升级到 Hardy RC,结果,eclipse每次启动的时候,要出错,说:
Could not initialize the application's security component.
The most likely cause is problems with files in your application's profile directory.
Please check that this directory has no read/write restrictions and your hard disk is not full or close to full.
It is recommended that you exit the application and fix the problem.
If you continue to use this session, you might see incorrect application behaviour when accessing security features.
把整个eclipse目录和workspace都给了 777的权限,还是报错。
几经Google,终于找到一个处理方法: mkdir ~/.mozilla/eclipse
不知何解~~~
安
装MyEclipse插件后,打开JSP文件时,出现:"processing dirty regions" 的错误,
解决办法是:删除原eclipse目录下,plugins/org.eclipse.wst.sse.ui_1.××××××.jar ,
或者是禁用掉原eclipse的WST插件。
同样,MyEclipse提示说:
“The Linux
WYSIWYG design panel is still under development. To access an
experimental version of this design panel restart with the commandline
argument -Dlinux.experimental=true”
这个参数,是要加到eclipse.ini文件里面的,而不是在执行eclipse的添加。~~~
comefrom:http://www.blogjava.net/xiaosilent/archive/2008/04/21/194559.html
作者:小兵
一、给Ubuntu配置JAVA环境
操作系统版本:Ubuntu 7.10 Gutsy
JAVA版本:JAVA 6
在Ubuntu下安装JAVA虚拟机和SDK(开发包)是非常轻松容易的:
联网的情况下在终端下输入命令
$sudo apt-get install sun-java6-jre sun-java6-sdk
这条命令就可以帮助下载并安装JAVA6了,顺便再给浏览器安装JAVA支持:
$sudo apt-get install sun-java6-plugin
安装完这三个之后还需要写入系统变量:
$sudo gedit /etc/environment
在文本编辑器里写入下面两行内容:
CLASSPATH=.:/usr/lib/jvm/java-6-sun/lib
JAVA_HOME=/usr/lib/jvm/java-6-sun
还要将系统虚拟机的优先顺序也调整一下:
$sudo gedit /etc/jvm
在文本编辑器里将下面一句写在最顶部:
/usr/lib/jvm/java-6-sun
接下来在终端中输入命令:
$java -version
终端应该返回如下字样:
java version "1.6.0_03"
Java(TM) SE Runtime Environment (build 1.6.0_03-b05)
Java HotSpot(TM) Server VM (build 1.6.0_03-b05, mixed mode)
这就说明JAVA环境已经建立好了,你可以用文本编辑器写一个JAVA HelloWorld!程序执行一下javac编译并java来解释执行看看效果。
二、安装配置Eclipse+MyEclipse
Eclipse是一个开源免费的软件开发工具(IDE),是一个基于JAVA的可扩
展的开发平台,准确来说Eclipse提供的是一个框架和一组服务,
Eclipse的开放可扩展性使得Eclipse拥有大量的插件可以扩展Eclipse的开发能力和功能,不仅仅局限于JAVA开发。所以虽然
Eclipse是使用JAVA编写的,但不仅仅可以用来进行JAVA开发,还可以用于C/C++等语言的开发,只要你安装相应的插件来扩展。
Eclipse最初是由IBM向开源社区捐赠的开发框架,IBM开发技术网站上有Eclipse的大量技术资料:
http://www.ibm.com/developerworks/cn/eclipse/
MyEclipse是用来扩展Eclipse的J2EE的开发功能的,所以基本上很多人使用Eclipse都会随之安装MyEclipse,MyEclipse也是Eclipse的插件。
对Eclipse和MyEclipse的介绍就到此了,正文开始:
首先在你的主文件夹(/home/[your name])下建立一个目录用于存放Eclipse,在shixinyu我的机子上是建立了一个JAVA目录在/home/shixinyu下。
先去Eclipse官方网站上下载Eclipse,目前最新版本是3.3.1.1:
http://www.eclipse.org/downloads/
shixinyu我下载的是Eclipse Classic 3.3.1.1这个版本
下载完后将下载到的压缩文件可直接解压缩其文件夹eclipse到/home/[your name]/JAVA下,可直接双击执行eclipse
接下来下载MyEclipse:
http://www.myeclipseide.com/module-htmlpages-display-pid-4.html
需 要下载与Eclipse 3.3相匹配的MyEclipse 6.0
GA这个版本,下载前需要注意一点,MyEclipse是一个商业软件,只能免费试用30天,30天之后必须提交订阅码才能继续使用。授权费用为标准版是
32美元,专业版是53美元。如果你有兴趣并且也愿意为此掏钱,那么请购买授权,否则想要继续使用,请自行处理。
下载完MyEclipse之后,得到的是一个.bin的文件,打开终端,使用cd命令进入MyEclipse安装文件所在目录,如shixinyu的是存放在/home/shixinyu/Downlads下的,那么就是输入命令:
$cd /home/shixinyu/Downloads
然后键入命令:
$sudo sh MyEclipse_6_0_1GA_E3_3_1_Installer.bin
随后就会启动一个GUI的安装程序。
单击“Next“按钮继续,选择“I accept...“:
在这里选择Eclipse所在目录,单击“Choose“按钮来选择,shixinyu的就是选择“/home/shixinyu/JAVA/eclipse“:
接下来选择MyEclipse的安装位置,我选择在"/home/shixinyu/JAVA/MyEclipse"这里(事先已经建立了MyEclipse这个目录):
接下来选择Link Folder,可以保持默认选择继续:
接下来就可以安装了,单击“Install“按钮:
安装好后进入/home/shixinyu/JAVA/eclipse直接双击执行eclipse即可自动识别出MyEclipse,想要在“应用程序“里建立菜单?
那么在终端下执行命令:
$sudo gedit /usr/share/applications/Eclipse.desktop
在文本编辑器里复制粘贴下面内容
[Desktop Entry]
Name=Eclipse
Comment=Eclipse IDE
Exec=/home/shixinyu/JAVA/eclipse/eclipse
Icon=/home/shixinyu/JAVA/eclipse/icon.xpm
Terminal=false
Type=Application
Categories=Application;Development;
|
保存这个文件后,就会在“应用程序”下的“编程”中出现Eclipse的快捷方式。
你可以在Eclipse里新建一个Projects后新建一个Class来写一个HelloWorld!程序测试一下。
http://tech.sina.com.cn/s/2008-01-18/08171981706.shtml
装eclipse之前,清确定你安装了jdk。
1、首先下载eclipse-SDK-3.3,这是目前最新版本的eclipse
官方下载:http://www.eclipse.org/downloads/
2、安装eclipse
(1)把eclipse-SDK-3.3解压到某个目录中,俺解压到的是/opt下,得到/opt/eclipse目录
如果想把eclipse目录的更改为root拥有,可以执行下面的命令
sudo chown -R root:root /opt/eclipse
当然也可以不用。
(2)在/usr/bin目录下创建一个启动脚本eclipse,执行下面的命令来创建:
sudo vi /usr/bin/eclipse
如果不熟悉vi命令的可以用Ubuntu自带的简单文本编辑器gedit,用下面的命令来创建:
sudo gedit /usr/bin/eclipse
然后在该文件中添加以下内容:
#!/bin/sh
export MOZILLA_FIVE_HOME=”/usr/lib/mozilla/”
export ECLIPSE_HOME=”/opt/eclipse”
$ECLIPSE_HOME/eclipse $*
(3)让修改该脚本的权限,让它变成可执行,执行下面的命令:
sudo chmod +x /usr/bin/eclipse
3、在桌面或者gnome菜单中添加eclipse启动图标
(1)在桌面或者启动面板上添加图标:
在桌面(右键单击桌面->创建启动器)或面板(右键单击面板->添加到面板 ->定制应用程序启动器)上创建一个新的启动器,然后添加下列数据:
名称:Eclipse Platform
命令:eclipse
图标: /opt/eclipse/icon.xpm
(2)在Applications(应用程序)菜单上添加一个图标
用文本编辑器在/usr/share/applications目录里新建一个名为eclipse.desktop的启动器,如下面的命令:
sudo vi /usr/share/applications/eclipse.desktop
或者
sudo gedit /usr/share/applications/eclipse.desktop
然后在文件中添加下列内容:
[Desktop Entry]
Encoding=UTF-8
Name=Eclipse Platform
Comment=Eclipse IDE
Exec=eclipse
Icon=/opt/eclipse/icon.xpm
Terminal=false
StartupNotify=true
Type=Application
Categories=Application;Development;
保存文件。完成整个安装过程。可以双击桌面eclipse的图标来运行eclipse
linkfrom:http://linux.e800.com.cn/articles/2007/827/1188149563706378065_1.html
sudo apt-get install mysql-server #直接自动获得可用版本
也可以这样写
sudo apt-get install mysql-server-5.0 #安装mysql服务器5.0版本
安装后
/etc/init.d/mysql start (stop) 为启动和停止服务器
/etc/mysql/ 主要配置文件所在位置 my.cnf
/var/lib/mysql/ 放置的是数据库表文件夹,这里的mysql相当于windows下mysql的date文件夹
启动mysql后,以root登录mysql
isher@isher-ubuntu:~$ mysql -u root
>show variables like 'character%'; #执行编码显示
+--------------------------+----------------------------+
| Variable_name | Value |
+--------------------------+----------------------------+
| character_set_client | latin1 |
| character_set_connection | latin1 |
| character_set_database | latin1 |
| character_set_filesystem | binary |
| character_set_results | latin1 |
| character_set_server | latin1 |
| character_set_system | utf8 |
| character_sets_dir | /usr/share/mysql/charsets/ |
+--------------------------+----------------------------+
在某些时候,我们续要修改mysql默认数据库的编码,以保证某些迁移的程序可以正常显示,编辑my.cnf文件进行编码修改,windows可以直接用Mysql Server Instance Config Wizard 进行设置
在linux下修改3个my.cnf的1个/etc/mysql/my.cnf文件
找到客户端配置[client] 在下面添加
default-character-set=utf8 默认字符集为utf8
在找到[mysqld] 添加
default-character-set=utf8 默认字符集为utf8
init_connect='SET NAMES utf8' (设定连接mysql数据库时使用utf8编码,以让mysql数据库为utf8运行)
修改好后,重新启动mysql 即可,查询一下show variables like 'character%';
+--------------------------+----------------------------+
| Variable_name | Value |
+--------------------------+----------------------------+
| character_set_client | utf8 |
| character_set_connection | utf8 |
| character_set_database | utf8 |
| character_set_filesystem | binary |
| character_set_results | utf8 |
| character_set_server | utf8 |
| character_set_system | utf8 |
| character_sets_dir | /usr/share/mysql/charsets/ |
+--------------------------+----------------------------+
此方法用于标准mysql版本同样有效,对于/etc/my.cnf文件,需要从mysql/support-files的文件夹cp my-large.cnf一份到/etc/my.cnf
linkfrom:http://hi.baidu.com/alman/blog/item/c572c9019da099d2277fb5fa.html
在ubuntu7.10中mysql安装,默认是只能本机访问的,需要打开用户权限和mysql的本机绑定
1、在命令行底下打开用户权限:grant all privileges on drupal.* to user@192.168.1.80 identified by 'user-password';
在管理员界面可以通过用户管理add host->any host来添加访问权限(root用户默认只能访问本机,新添加的用户可远程)
2、取消mysql本机绑定:
编辑/etc/mysql/my.cnf
# Instead of skip-networking the default is now to listen only on
# localhost which is more compatible and is not less secure.
bind-address = 127.0.0.1
将”bind-address = 127.0.0.1“注释
sudo /etc/init.d/mysql restart重启即可远程访问
linkfrom:http://hi.baidu.com/iminger/blog/item/19e0c9139a052bd4f7039e50.html
a. show tables或show tables from database_name; // 显示当前数据库中所有表的名称
b. show databases; // 显示mysql中所有数据库的名称
c. show columns from table_name from database_name; 或show columns from database_name.table_name; // 显示表中列名称
d. show grants for user_name@localhost; // 显示一个用户的权限,显示结果类似于grant 命令
e. show index from table_name; // 显示表的索引
f. show status; // 显示一些系统特定资源的信息,例如,正在运行的线程数量
g. show variables; // 显示系统变量的名称和值
h. show processlist; // 显示系统中正在运行的所有进程,也就是当前正在执行的查询。大多数用户可以查看
他们自己的进程,但是如果他们拥有process权限,就可以查看所有人的进程,包括密码。
i. show table status; // 显示当前使用或者指定的database中的每个表的信息。信息包括表类型和表的最新更新时间
j. show privileges; // 显示服务器所支持的不同权限
k. show create database database_name; // 显示create database 语句是否能够创建指定的数据库
l. show create table table_name; // 显示create database 语句是否能够创建指定的数据库
m. show engies; // 显示安装以后可用的存储引擎和默认引擎。
n. show innodb status; // 显示innoDB存储引擎的状态
o. show logs; // 显示BDB存储引擎的日志
p. show warnings; // 显示最后一个执行的语句所产生的错误、警告和通知
q. show errors; // 只显示最后一个执行语句所产生的错误
linkfrom: http://hi.baidu.com/linuxgg/blog/item/95c0e0fe468db0305c6008bb.html
一般如果把程序、配置文件和数据库字符格式都设置成utf8字符的话是不会出现乱码的。
可以通过命令
SHOW VARIABLES LIKE '%character_set_%'
察看Mysql的编码设置
character_set_client, utf8
character_set_connection, utf8
character_set_database, utf8
character_set_filesystem, binary
character_set_results, utf8
character_set_server, utf8
character_set_system, utf8
character_sets_dir, E:softProgrammysqlmysql-5.0.22-win32sharecharsets
1.什么是DAO?
DAO是Data Access Object数据访问接口,数据访问:故名思义就是与数据库打交道。夹在业务逻辑与数据库资源中间。
在核心J2EE模式中是这样介绍DAO模式的:为了建立一个健壮的J2EE应用,应该将所有对数据源的访问操作抽象封装在一个公共API中。用程序设计的语言来说,就是建立一个接口,接口中定义了此应用程序中将会用到的所有事务方法。在这个应用程序中,当需要和数据源进行交互的时候则使用这个接口,并且编写一个单独的类来实现这个接口在逻辑上对应这个特定的数据存储。
DAO(数据访问对象)是一种应用程序编程接口(API),存在于微软的Visual Basic中,它允许程序员请求对微软的Access数据库的访问。DAO是微软的第一个面向对象的数据库接口。DAO对象封闭了Access的Jet函数。通过Jet函数,它还可以访问其他的结构化查询语言(SQL)数据库。
2.什么是POJO?
简单的Java对象(Plain Old Java Objects)实际就是普通JavaBeans,使用POJO名称是为了避免和EJB混淆起来, 而且简称比较直接. 其中有一些属性及其getter setter方法的类,有时可以作为value object或dto(Data Transform Object)来使用.当然,如果你有一个简单的运算属性也是可以的,但不允许有业务方法,也不能携带有connection之类的方法。
POJO有一些private的参数作为对象的属性。然后针对每个参数定义了get和set方法作为访问的接口。例如:
public class User {
private long id;
private String name;
public void setId(long id) {
this.id = id;
}
public void setName(String name) {
this.name=name;
}
public long getId() {
return id;
}
public String getName() {
return name;
}
}
POJO对象有时也被称为Data对象,大量应用于表现现实中的对象。
3.什么是IMPL?
尚未查到。
由于平时都是用sudo 来进行操作,很长时间没有使用root账号,结果把密码给忘记了。
刚开始在网上找了找解决方法,发现recovery模式下还是要密码。
再看到别人的建议是把/etc/shadow下面的root中密码位置全部删掉,就可以不用密码了。
试过之后发现仍然不行,不过这一次想到一个办法,就是把自己用的这个账号的密码复制到root那一行。
reboot之后,打开terminal,su root输入当前用户的密码问题搞定。 哈哈。
本人试过,在8.04前版本有效。不但对root密码有效,对其他用户密码用此方法皆有效。
来自: http://thankness2005.spaces.live.com/Blog/cns!19C5FB0F02BC69C8!1023.entry
1)启动Tomcat服务器,打开浏览器,输入http://localhost:8080/admin/(其中localhost是名称服务器或称为主机),
进入管理界面的登陆页面,这时候请输入原来安装时要求输入的用户名和密码,登陆到管理界面,
2)选择Resources-Data sources进入配置数据源界面,选择
Data Source Actions ->选择Create New Data Source,进入配置详细信息界面
主要内容例如下:
JNDI Name: ->jdbc/mysql
Data Source URL ->jdbc:mysql://localhost:3306/db
JDBC Driver Class-> com.mysql.jdbc.Driver
3)修改"conf"context.xml,全部内容如下:
<Context>
<Resource name="jdbc/mysql"
auth="Container"
type="javax.sql.DataSource"
driverClassName="com.mysql.jdbc.Driver"
url="jdbc:mysql://172.16.0.25/db"
username="root"
password="root"
maxActive="100"
maxIdle="30"
maxWait="10000" />
</Context>
4)修改web.xml
打开%TOMCAT_HOME%"conf"web.xml,在的前面添加以下内容:
<resource-ref>
<description>DB Connection</description>
<res-ref-name>jdbc/mysql</res-ref-name>
<res-type>javax.sql.DataSource</res-type>
<res-auth>Container</res-auth>
</resource-ref>
注意res-ref-name填写的内容要与在上文提到的JNDI Name名称一致。
到这里,配置工作就基本完成了!
5)引用JNDI时用"java:comp/env/jdbc/mysql";
有的时候直接应用JNDI名就可以,比如WEBLOGIC8。而TOMCAT就是这么做。
6)JDBC驱动程序mysql-connector-java-5.0.0-beta-bin.jar
一定要放置到%TOMCAT_HOME%"common"lib下。
重启你的Tomcat服务。
来自: http://zf2000.bokee.com/5421704.html (有删减)
目前Oracle10对Ubuntu的支持不好,据说是可以安装,但是需要很麻烦的配置,而且我的老爷机也很难撑住Oracle企业版这种大东西,于是在
自己家里的机子上就安装了Oracle-xe
10,由于对Oracle数据库管理并不是很了解,所以难免碰壁,用下来一段时间发现Oracle-xe在功能上还是能实现很多常见的Oracle应用
(而这些对我一个Developer来说就足够),而使用上则更是大同小异,所以学学Oracle-xe也满不错的。
一、安装Oracle-xe
由于新项目采用的是Oracle10i,所以一直想在家里搞个模拟环境,但是在Ubuntu下Oracle就成了我最大的阻碍,先是最开始的PL/SQL
代替品,然后是Oracle的代替品。下载了好久才把Oracle企业版搞下来,但是无法安装,郁闷之下下载了Oracle-xe,下载地址:http:
//www.oracle.com/technology/software/products/database/oracle10g/index.html,
注意选择下载适用于Express Edition z/Linux的版本,
也用了很长时间,但是值得庆幸的是安装还是相当的简单,一个deb包,安装好以后根据它的提示设定初始化配置:http:
//wlx.westgis.ac.cn/260/介绍了Oracle-xe的具体安装设置方法,但是我这里使用ssh方法链接一直报错:
- ssh -L 8084:localhost:8084 oracle@127.0.0.1
- ssh: connect to host 127.0.0.1 port 22: Connection refused
这个错误问了一些人、也搜索了很多,但是没有答案,索性不去搞它,还有SQL PLUS 和Oracle SQL Developer可用。
二、安装Oracle SQL Developer
这个是Oracle退出的免费Oracle管理工具,提供多种语言和多个操作系统的实现,由于Ubuntu上没有独立实现,所以下载了Java版本,由于
是使用Swing实现,所以使用起来非常的慢,简直和PL/SQL不是一个档次的东西,但是无奈有这个东西也还算好了。使用Ubuntu的人需要具有更多
的人耐力。
安装方法很简单,去Oracle的官方网站下载安装即可。
三、简单使用Oracle-xe
首先了解了一下其自带的Sample,是通过Oracle自带的Web管理工具,在Oracle-xe启动以后,访问http://localhost:
<port>/apex就可以了,然后使用SYS或者SYSTEM帐户登录,密码是初始化设定的。包含一个默认的HR帐户,但是需要解除锁
定,在这里面提供了几本的系统管理、表管理等功能,还有一个应用程序管理,这个由Oracle提供的get
started就是一个报表管理程序,按照它的步骤做下来,还是很容易的。
四、继续学习
http://www.oracle.com/technology/getting-started/xe.html
访问这个地址有更多有关Oracle-xe的文档,接下来学习Oracle® Database Express Edition 2 Day
DBA,讲述了很基础的东西和平时使用Oracle就很像了,Oracle-xe默认的SID是xe,在刚才的Web管理界面里面直接创建一个用户,然后
就可以使用SQL PLUS或者Oracle SQL Developer登录进行Oracle的操作。
来自:http://yueguangyuan.javaeye.com/blog/97027
MyEclipse 6.0.1 注册码
Subscriber: administrator
Subscription Code: nLR7ZL-655342-54657656405281154
注册后:
Subscriber: administrator
Product ID: E2MY (MyEclipse Standard Subscription)
License version: 1.0
Full Maintenance Included
Subscription expiration date (YYYYMMDD): 20091021
Number of licenses: 897
来自: 忘了,对你有帮助就好!
若是要安装oracle10G,可能要麻烦些,但若是安装oracle 10g express的话,那就很简单:
1、修改/etc/apt/source.list,添加oracle的源:
deb http://oss.oracle.com/debian unstable main non-free
2、进行更新和安装
aptitude update
aptitude install oracle-xe-universal
3、进行初始的密码设置
/etc/init.d/oracle-xe configure
若服务器无GUI,可以这样远程管理
ssh -L 8080:localhost:8080 user@IP_of_your_server
firefox http://localhost:8080/apex/
来自:http://wlx.westgis.ac.cn/260/
海珠区
1、第二工人文化宫 (市二宫)
地点∶同福东路 电话∶84441441
开放时间∶ 8:00-23:00
收费标准∶ 25元/小时
简
介:有6个溶胶场地,2个水泥场地。
2、广州腾龙羽毛球俱乐部
地点:广州市海珠区工业大道大干围路18号
订场电话:84305303
开放时间:9:00-24:00
简介:八个专业羽毛球场,柚木地板,护足防震,专业灯光
收费标准: 羽毛球: 周一至周五9:00-16:00 会员5元/小时,非会员10元/小时 周一至周日16:00-24:00 会员20元/小时,非会员25元/小时 周六,周日,节假日9:00-16:00 会员18元/小时,非会员22元/小时 乒乓球: 周一至周日9:00-16:00
会员5元/小时,非会员10元/小时
周一至周日16:00-24:00 会员8元/小时,非会员15元/小时
3、教育学院
地点∶新港中 电话∶请查询114
开放时间∶ 8:00-23:00
收费标准∶ 25元/小时
简
介:
4、珠滨体育活动中心
地点∶滨江中草芳围4号七楼
电话∶84433803
开放时间∶9:00-24:00
收费标准∶ 28元/小时
简
介:有6个柚木场地。
5、华旺羽毛球场
地点∶江南西欧家祠前十九号之三
电话∶84447271
开放时间∶8:00-24:00
收费标准∶周一至周五 8:00-18:00 20元/小时 周六、日及节假日 8:00-18:00
25元/小时 18:00-24:00 30元/小时
简
介:有7个柚木场地。(场地稍短,不合规格)
6、精英羽毛球场
地点∶泉塘路38号
电话∶84412916
开放时间∶8:00-24:00
收费标准∶
简
介:有12个柚木场地。
7、荔福羽毛球馆
地点:荔福娱乐城二楼。
电话:84320059
开放时间:
收费标准:15-30元/小时.
简介:有4个木地板场,工业大道和荔福路交界,在内环路工业大道出口下, 然后在第一个红绿灯转左即见。
8、江燕羽毛球馆
地点:江燕路(南珠广场商场侧。
电话:34368026
开放时间:8:00-24:00
收费标准:20-35元/小时.
简介:有13个木地板场
9、熙翔羽毛球场
地点∶滨江中路
电话∶84433204
开放时间∶ 9:00-23:00
10、新窖文体中心
地点∶广州市河南敦和路195号
电话∶020-84721078
开放时间∶周一至周五
9:00-23:30 周六、周日 7:00-23:30
收费标准∶周一至周五
9:00-17:00 15元/小时 17:00-23:30 20元/小
时 周六、日及节假日
7:00-17:00 20元/小时 17:00-23:30 25元/小时
租球拍,10元/小时/对,按金50元
简介:7个木地板羽毛球场。可办理电话订场。
11、夺冠体育
地点∶广州市新港中艺苑南路
电话∶84287932
开放时间∶周一至周五
9:00-23:30 周六、周日 7:00-23:30
收费标准∶周一至周五
9:00-17:00 30元/小时 17:00-23:30 40元/小
时 周六、日及节假日 40元/小时
简介:9个木地板羽毛球场。可办理电话订场
12、广州南岭珠滨体育活动中心 (足球、羽毛球、乒乓球)
地 点∶滨江中路草芳围4号(华缝厂侧)
电 话∶020-84433803
开放时间∶9:00--24:00 (次日凌晨1,2点都可以)
收费标准∶9:00-16:00 15元/小时 (会员13元/小时) 16:00-24:00 30元/小时 (会员25元/小时) 节假日全天30元/小时 (会员25元/小时)
13、海滨羽毛球(新场,试业中)
电话:020-84128770 84129560
地点:鹤洞大桥引桥旁入到江边
收费标准:夜场,20元/小时;星期一至五:5点钟前15元/两小时,星期六、日:5点钟前10元/小时。
14、彩虹羽毛球馆
电话:34380182
地址:宝岗大道宝岗体育场左侧八0八台内
收费标准:日间7元/小时
晚间(假日)28/小时
简介:场高9米,跨度23米,共十五个场。
15、前线羽毛球馆
电
话∶34120393 34120411
地
址:晓港公园门口
收费标准:早上15块一小时,12点后20一小时,4点-晚上35一小时,节假日 30-35一小时
16、广轩大厦体育馆
电 话∶020-84174688转体育馆
地 址∶广东省广州市海珠区路洛溪桥脚
开放时间∶9:00-22:00 收费标准∶09:00-18:00 15元/小时 18:00-22:00 20元/小时
简介:有2片室内塑胶羽毛球场。
17、广州精英羽毛球活动中心
电 话∶020-84324757
地 点∶工业大道中泉塘路38号
开放时间∶08:00-24:00
收费标准∶周一至五8:00-11:00 原价10元/小时,优惠价(优惠期)6元/小时,会员价(凭证每证一个场)免费;周一至五11:00-17:00 原价20元/小时,优惠价(优惠期)15元/小时,会员价12元/小时。
周一至周五17:00-24:00,周六、日全天及节假日
原价:35元/小时,优惠价(优惠期)28元/小时,会员价20元/小时。
简介:有14片室内木地板羽毛球场。
注:精英会员卡400元/年。球馆定期会有优惠活动推出。
18、中山大学英东体育馆
电 话∶020-34515916
地 点∶中山大学
开放时间∶9:00-22:00
收费标准∶30-35块钱
19、强胜羽毛球训练中心
电 话∶84216996
地 点∶赤岗(原广州万宝洗衣机厂的地面)
收费标准∶第一次优惠期至5月31日止,期间黄金时段18元/时。
20.弘扬羽毛球馆
地点:区庄立交东北侧
开放时间:早8点到凌晨2点
简介:广州市最高卡士的羽毛球场,地板是木地板上铺flax比赛胶垫(一个场一张那种),黄金时段120元/小时,不过现在有55折。
21.广州海珠区江燕羽毛球俱乐部球馆 江燕路(南珠广场附近) 电话:020-34368026
开放时间:上午8:00--晚上12:00 周一至五上午8:00—下午6:00,16元/小时。
周六、日上午8:00--下午6:00,24元/小时。
其余时间28元/小时。
复制以下内容到mysql front 上
aLuo8QAslIZw/xEq9+A4LczWqdUdCq/fS
AgwKBpvj3uLonNP5NnixM+qDj3Od1JzPf
m5XpDptwF2zNsIq1PSLNmp9OLRHpT/zke
By4M6aBTTrNA9bnX4hb9RPpT1nIViykZb
iYO/dc33UNBt6MTQX+F8xIrmVrIPkCvS6
AaQAwOb+LgykeD7iwLDkUCvTXlP5HHHTY
whtg6+VKRTas04Wm8zvzQnxFNjOpF8F0e
Bo2wNmKtGz/o8V5lbqTq0cisaqzfb55lH
54i6NDGb4DhCVg==
身体平坐,把手放在自己的膝盖上。想让自己的双手放松,整个手臂紧贴着大腿,手掌朝上。
手紧握哑铃以两秒钟的频率做屈脘运动,切记不要动作太快。太快的话会把力量分散到手部的其他肌肉里而达不到锻炼脘部的最加效果。注意每个动作的幅度都要尽量做到最大,手臂不可以离开大腿。
初次锻炼根据每个人本身的力量不要用太重的哑铃。我自己第一次是用5KG的。想快点有效果的话就每一次做的时候尽量让自己的脘部力量用到最尽。但这样的话第二天有可能连个碗都端不起来。但最科学的方法是做三组,第一组做10分钟然后休息20分钟,第二组8分钟也休息20分钟,第三组5分种。刚开始做一天休息两天。一个星期之后可以尝试搁天做一次,最后是每天都做。哑铃的重量也可以适当增加。但注意不要一味想着速成,过分用力的话有可能把自己的韧带拉伤的。
总之一切都要量力而为,一个月后你的脘部力量就会有明显的增强的了。
来自:http://hi.baidu.com/freshbaby1127/blog/item/749c38c7834a50dcd10060ae.html
AT900无疑是当下最热的球拍,我个人也比较关注。从网上搜来一些评测报告,与大家分享!希望大家也可以写写,贴贴!!
终于等到了AT900,2003年起AT700独大的垄断终于被打破了。
外观:
AT900-P 整体颜色偏深。拍杆呈深褐色,拍框下部带有红色花纹,上半部则是银色。拍头带有网格状金属条配重。盒式拍框结构。拍框印有NANOSCALE ELASTIC TI的字样。使用C.S.CAP。在拍框12点位置以浅色发散形式印有POWER字样。都采用了加长拍柄,单双打通吃。
AT900-T 整体颜色较浅。拍杆连至拍框下半部都为银白色,拍框处带有浅银灰色条纹。拍头处也是网格状金属条配重。破风拍框结构。拍框也同样印有 NANOSCALE ELASTIC TI的字样,也使用C.S.CAP。在拍框12点位置以浅色发散形式印有TECHNIQUE字样。
两支球拍拍杆均印有ULTRA HIGH MODULUS GRAPHITE, ULTRA LIGHT HEAD HEAVY BALANCE字样。硬度都标称为STIFF。
两支球拍都使用SFC发泡材料填充成型工艺,球拍整体应该是较致密的,比吹气管工艺要先进不少。目前YONEX的高端拍普遍使用此工艺,看来这SFC技术日后会变成YONEX高端拍的一种标准,就好比所有YONEX球拍都有T头一样。导向线孔现在似乎也已经成为高端拍的标配了。不过900的导向线孔与9000的略有不同。900有6个而9000有8个。
整体色彩效果来看,900P沉稳,900T轻灵,与球拍实际设计相符。个人认为900T的颜色更讨好一些。
使用:
曾经有人说:“怎么现在的球拍评价都这么无聊,都说XXX比XXX好”。对此,我只能表示,更新换代的产品就是这样的,如果不是XXX比XXX好,那么新的高端产品卖给谁呢?
两支球拍的爆发力都很不错,得益于新材料的使用。发力进攻时,盒式结构的900P更加稳定,更加扎实一些。不过力量不足的人应该体会不到这些差别。
900P的拍头略重于900T,具体量化,大约是5mm的平衡点差异。拿在手上的区别较明显。由于平衡点的差异,900T的防守略轻松一些。如果有人觉得9000X太硬而不够重,可以考虑使用AT900P。而想要体会AT而力量不够的,则可以考虑900T。相对于AT700而言,900P的拍头要轻一些,更不用说900T了。
两者的网前稳定性都还是可以的,900T相对更灵活一些。上手的感觉比AT700要舒服很多,应该是头轻的原因。两支球拍反应速度都很敏捷(但个人感觉还不如NS9000),平抽挡时爆发力都还好,只是900P要多消耗一些力量。虽然是全新的设计,但是900的“AT”基因还是较明显的,尤其时AT900-P,大力进攻时颇有铁锤砸鸡蛋的感觉。进攻时的音响效果都还不错(BG75TI),相比之下,900P的声音更“猛”,900T更“嘹亮”。
唯一“美中不足”的是,两把球拍的宽容度都不是很好,这点与NS9000比较像,不过这种高端拍,设计时就没有过多的考虑“宽容度”问题,大家选择穿线磅数的时候要“量力而行”哦。
百晓生推荐:
AT900-P, 4U为好
AT900-T,3U 4U根据个人能力决定。
测试球拍均为4UG4 YONEX BG75ti线(大陆市场无售) 28lbs 金万利 KGT-100手胶。
测试球拍平衡点(带线手胶,未配重,误差1mm)
AT-900P 290mm
AT-900T 285mm
以上文字谨供SHBC(上海羽毛球网)论坛使用,如需转载,请注明出处。
●球拍重量代号: U=95~99克 2U=90~94克 3U=85~89克 4U=80~84克
●拍柄尺寸代号: G3=拍柄周长89毫米 G4=拍柄周长86毫米 G5=拍柄周长83毫米
●拉线张力范围: 1bs:磅(英制单位) KG:公斤(公制单位)
拉线须知
1、羽毛球拍采用新材料,新形状。为最大限度地发挥球拍性能,请保证拍框形状在拉线后与原有形状保持一致。(可在穿线后与未穿线球拍进行对比)
2、建议使用高精度拉线机进行拉线,并且在锥盖标签的张力范围内进行操作。
3、拍线丈量:竖线需要球拍总长8~8.5倍 横线需要球拍总长6~7倍
4、注意:请务必按照标准穿线方法穿线,为确保线床张力均匀,必须空拍上机夹紧以后,再先拉竖线后拉横线。竖线:球拍线穿过拍框下部从中间计算第9孔后,穿过第12孔,由第10孔穿出后在第8孔的位置固定打结。(注意箭头标示的特别走线标准)横线:在拍框上部由中间开始计算第6孔位置固定打结后穿过第7孔开始穿插线。从第6条横线开始,拉线张力增加约2磅。最后,穿过拍框下部由中间开始计算第9孔后,在第7孔的中间位置固定打线路。(注意从拍头开始逐条横线拉)
使用须知
●防止危险
1、使用球拍前,必须确认各部位无异常。
1)双手分别握紧拍框和拍柄,适当用力左右拧2~3下,以确认球队拍的正常接合状态。
2)用类似握法适当用力弯一弯拍杆,确认拍杆无损伤。
3)检查拍柄是否滑手,摩擦力不足时要及时更换柄皮。
2、禁止用羽毛球拍击打或碰撞羽毛球以外的物品。
3、请按厂家建议的拉线张力范围进行拉线,如明显超过张力拉线会影响球拍的性能和造成拍框破损,同时请尽可能保持拍框原形进行拉线。
4、球拍若发生破损,请不要触摸破损部位,以免受伤。
●注意保管
1、切勿将球拍放置在阳光照射下的密闭汽车尾箱里,也不要放置在暖气设备附近,以免高温环境使球拍结构变软,并在拍线的张力作用下发生变形导致损坏。
2、存放时不得在球拍上放置重物。(球拍放进拍袋后,受重可能已超过所预想的重量)
●不得改造
对球拍被私自改造或修理所发生的事故不负责任。
●其他事项羽毛球拍采用了新型复合材料制造,使用安全。但是长期使用或短期内使用频繁,球拍强度会随之降低,可能会发生性能的变化或发生破损。
有一夫妻,挺逗。
他们买了2辆车,男的开思域(欲),女的开蓝(拦)鸟。
现在大家说起这事,都哈哈笑个不停。
1、下载MySQL-5.0.19-alpha-win32.msi,双击安装
2、安装开始,选择Custermer,然后更改安装路径(可选),其他按照默认设置
但是自定义的安装路径不宜太深、不能还有特殊字符,比如d:\server\mysql
3、安装完成后最后一个界面,取消自动配置前的勾,点击完成。
4、打开“开始菜单|MySQL Server Instance Config Wizard”配置过程如下:
1).首先选择配置类型的时候,选择标准配置“Standard Configuration”
2).其次,在选择系统选项(Windows Options)时,勾选“Include Bin Directory in Windows Path”
3).接着设置数据库管理员root的密码
4).最后点确认, 最后开始更新配置
5).更新配置过程,可能会弹出“Can't connect to MySQL Server on 'localhost'(10061)”错误,
6).此时一般点击重试“Retry”即可,最后点击Finish完成配置。
5、配置PHP,启用MySQL和GD库
1).查找;extension=php_mysql.dll去掉前面的;启用MySQL组件。
2).查找;extension=php_gd2.dll去掉前面的;启用GD库组件
来自:http://athurg.cn/read.php?141
台湾论文下载
http://datas.ncl.edu.tw
台湾论文下载!
请用一下的姓名和号码!
檔編號 A155183591(台湾姓名,省份证号)
-----------------------------------------------
cnki硕博士论文和期刊全文下载
www.cnki.net
用户名:syhngf
密码:hngfdx
------------------------------------------------
万维数据库
http://www.fosu.edu.cn/netres/network8.htm#_Toc512706774
-------------------------
英文ebook的经典搜索引擎
www.searchebooks.com
-------------------------
《中国科学》、《科学通报》等中英文版 。
用户可直接通过该网站索取原文。
user name:2002za05
password:uiop45nm
--------------------------
区域经济全文数据库(用户名和密码:guest)
http://211.83.192.212/tpi/sysasp/CNKI/mainframe.htm
--------------------------
硕士博士优秀毕业论文全文下载(pdf文件)
http://www.gotofund.com/down/picpu.asp?id=290
--------------------------
cnki免密码镜像链接
http://210.32.39.10/kns30
--------------------------
EBSCO入口(收录了medline等多个数据库)
http://web11.epnet.com/selectdb.asp?tb=1&_ug=sid+B1883175%2DF3AE%2D4AFE%2D9E7A%2DB5852FF10A04%40Sessionmgr6+14D0
-------------------------
免密码万方数据
http://wanfang.calis.edu.cn/szhqk/index.html
----------------------------
Grolier online MM
http://www.go.grolier.com/
Username: svhs
Password: online
----------------------------
中国期刊网cnki全文加硕博【首次发布集合篇】
期刊全文:
csxxq319/ 5331798
syxjdx/xjdx
中国优秀博硕士学位论文全文数据库(CDMD)
k10225 cnkikw 经济 法律
k10224 cnkikw 理工bc
另外一些当前可用的
硕博帐号:sydgtsg 密码:dgtsg (东莞图书馆的)
全文帐号:k10039 密码:cnkikw
《维普行业剪报数据库》:http://xw.linkinfo.com.cn:90/
人大复印:http://61.145.69.9/cgrs/ServerListFrm1.htm,用户标识是ftrd,用户 密码为空
万方:http://159.226.236.7:85/szhqk/index.html
http://wanfang.calis.edu.cn 用户:wfsyzy 密码:wfsyzy
万方学位论文
http://mirror.wanfangdata.com.cn:98
用户名:hgdt 密码:temli
-------------------------
Wilson Web 全文数据库
http://hwwilsonweb.com
Username: awo52
Password: unpr224360
------------------------
firstsearch密码
国外的,比国内的ECO要好的多
http://firstsearch.oclc.org
uesrname:100162968
password:Austin
--------------------------
Ebsco(很好用)
Customer Code = psu
user
PASSWORD=212905
--------------------------
几个数据裤的密码!
ISMEC Technology Plus Text User id : awj11
Password : unmy223557
--------------------------
BiblioLine
URL : http://biblioline.nisc.com/scripts/login.dll?noip
User Name : swu
Password : swulib
-------------------------
Ebsco http://search.epnet.com
username – meridian
password – library
http://search.epnet.com/
UserID: s8845069 Password: password
-----------------------
PASSWORD PAGE
http://www.eafit.edu.co/biblioteca/loNuevo/basesDatos.htm
可能有些不可用.来自:http://liuyu212818.blog.163.com/blog/static/2684796920074134526579/
在 Ubuntu7.04 上安装 Oracle 10g
written by flexitime, 2007-10-15〔http://flexitime.blog.sohu.com/)
今天终于在Ubuntu7.04上成功安装Oracle10g。为了安装Oracle,花了不少时间到网上查资料,不过更多的时间用于自己的真正实践,当
中走了不少的弯路,现在把安装过程记下来。(我一共在两台机器上安装了三次,这篇文章是在安装第三次的时候一边操作一边在另外的电脑上写的)
在网上有不少Oracle的安装教程,但这些教程更多的只是针对较低版本的Ubuntu(如6.X,5.X等等),而且安装Oracle的过程中也有些问
题是没有描述和解决的。因此,我觉得有必要自己写一下安装我的实践过程,当然,我主要还是参考了孙高勇先生的《Oracle 10g for
Ubuntu安装指南》的内容。
现在开始吧!
第一步,我们需要一个Ubuntu。当然在网上可以免费下载得到,我用的是桌面版,而不是网站上提供的服务器版,很多刚由Windows转过来的
朋友可能会认为服务器版总会比桌面版多些功能,为此而下载了服务版来用。其实Ubuntu网上提供的下载却不然,服务器版只不过比桌面版多了amp的软件
(a-apache, m-mysql,
p-php),但却没有图形用户界面(可以另外再安装,但比较麻烦)。为此,我使用了桌面版的Ubuntu来完成这次的安装。安装的时候虽然有中文可以选
择,但我还是选用了英文,这不是我的英文特别好(再好也好不过母语)的缘故,而是因为Ubuntu的汉化未如理想,汉字的支持也不怎么样(特别是在纯
CUI模式下)。所以还是用英文会更好(不必担心,在英文版Ubuntu下一样可以用中文的输入法,同样也可以让Oracle支持中文),要安装
ubuntu,可以参考网上的其它教程。
第二步,安装必需的包
apt-get install gcc make binutils lesstif2 libc6 libc6-dev rpm libmotif3 libaio libstdc++5 alien
第三步,创建用户
在很多教程中都用命令去创建用户。但我发现用命令去创建的用户,在图形界面下用得不甚理想,所以用图形界面的用户管理器增加一下新组叫dba,然后再增加一个普通桌面的用户叫oracle(按默认的设置即可),接着用命令增加一个组及用户
addgroup nobody
usermod -g nobody nobody
第三步,复制文件及设置安装目录
我是用以CD作介质来安装Oracle的,所以安装之前要先将安装文件复制到机器当中(不复制也是可以的,但复制到机器中会比较稳当),我在
/ 上创建一个目录ora_ins_disk,然后将文件都复制进去。复制后,为了确保能顺利进行安装,要查看一下runInstaller及
unzip 两个文件属性,确保其具有x属性(我就在unzip这个地方倒了大霉,试着安装的时候老是报Permission
Denied,我开始的时候一直以为是tmp空间不足,其实是 unzip 中没有运行的权限),如果没有那么要改动一下文件的属性:
cd /ora_ins_disk
chmod 755 runInstaller
cd install
chomd 755 unzip
我准备把oracle安装到/opt/ora10中,而数据文件也放在这个目录的下层子目录中:
cd /opt
mkdir ora10
chown -R oracle:dba ora10
第四步,修改设置
A.设置swap区
Oracle10g至少需要500M的内存和400M的交换空间,要查看swap区是否足够大小,用 fdisk -l 命令去查,如果小于400M的空间,那么就要增加swap的大小
重设交换分区可以使用如下操作:
dd if=/dev/zero of=tmp_swap bs=1k count=900000
chmod 600 tmp_swap
mkswap tmp_swap
swapon tmp_swap
完成安装以后,可以释放这个空间:
swapoff tmp_swap
rm tmp_swap
count 值是根据你需要调整的交换分区大小而定。
B.修改 sysctl.conf
添加如下的行到/etc/sysctl.conf 中:
kernel.shmmax = 3147483648
kernel.shmmni = 4096
kernel.shmall = 2097152
kernel.sem = 250 32000 100 128
fs.file-max = 65536
net.ipv4.ip_local_port_range = 1024 65000
C.修改 limits.conf
添加如下的行到/etc/security/limits.conf中:
* soft nproc 2407
* hard nproc 16384
* soft nofile 1024
* hard nofile 65536
D.让修改生效
修改了以上文件后,必须让其生效,或重启系统,或切换到 root 用户下用以下的方式改变内核运行参数:
sysctl -p
E.产生相应的软连接
创建一个文件如 kk,内容如下:
#!/bin/bash
ln -s /usr/bin/awk /bin/awk
ln -s /usr/bin/rpm /bin/rpm
ln -s /usr/bin/basename /bin/basename
mkdir /etc/rc.d
ln -s /etc/rc0.d /etc/rc.d/rc0.d
ln -s /etc/rc2.d /etc/rc.d/rc2.d
ln -s /etc/rc3.d /etc/rc.d/rc3.d
ln -s /etc/rc4.d /etc/rc.d/rc4.d
ln -s /etc/rc5.d /etc/rc.d/rc5.d
ln -s /etc/rc6.d /etc/rc.d/rc6.d
ln -s /etc/init.d /etc/rc.d/init.d
创建后,切换到 root 用户去执行一下。
F.创建RedHat的版本声明文件
在/etc/redhat-release中添加以下语句,以使安装程序认为正在一个RedHat的系统上安装:
Red Hat Linux release 3.1 (drupal)
G.修改环境变量
编辑 /home/oracle/.bashrc,增加以下export 的内容。
(注意,在Ubnutu 7.04中用户的profile文件已改名为~/.profile,有很多安装教程都是用 ~/.bash_profile,在7.04中不行的)
export ORACLE_HOME=/opt/ora10
export ORACLE_OWNER=oracle
export ORACLE_SID=ora1
export ORACLE_TERM=xterm
export PATH=$ORACLE_HOME/bin:$ORACLE_HOME/Apache/Apache/bin:$PATH
第五步,开始安装
注销原来的用户,改用oracle用户登录。用env查看一下环境变量是否生效。
然后进行/ora_ins_disk中进行安装
cd/ora_ins_disk
./runInstaller
在安装过程中,请使用 Advanced Installation,然后一路按默认的设置进行往下设置,到窗单名为 “Specify Database Configuration Options”的时候,要修改以下设置:
Database Character Set 中选择 Simplified Chinese ZHS16GBK
在安装的后期,系统提示需要用 root
用户去运行两个脚本文件orainstRoot.sh和root.sh,安装完毕后,Oracle是正常启动着的,你可以试一下连接数据库,同时也可以使
用浏览器去设置一下Oracle,(url:http: //localhost:1158/em/)(Oracle
10g与之前的版本都不一样,使用WEB页的企业管理器来代替以前的C/S版JAVA企业管理器)
第六步,设置自启动
创建自启动脚本
创建 oracledb 脚本到/etc/init.d/oracledb,内容如下
#!/bin/bash
#
# /etc/init.d/oracledb
#
# Run-level Startup script for the Oracle Instance, Listener, and
# Web Interface
export ORACLE_HOME=/opt/ora10
export ORACLE_SID=ora1
export PATH=$ORACLE_HOME/bin:$ORACLE_HOME/Apache/Apache/bin:$PATH
ORA_OWNR="oracle"
# if the executables do not exist -- display error
if [ ! -f $ORACLE_HOME/bin/dbstart -o ! -d $ORACLE_HOME ]
then
echo "Oracle startup: cannot start"
exit 1
fi
# depending on parameter -- startup, shutdown, restart
# of the instance and listener or usage display
case "$1" in
start)
# Oracle listener and instance startup
echo -n "Starting Oracle: "
su $ORA_OWNR -c "$ORACLE_HOME/bin/lsnrctl start"
su $ORA_OWNR -c "$ORACLE_HOME/bin/dbstart"
touch /var/lock/oracle
su $ORA_OWNR -c "$ORACLE_HOME/bin/emctl start dbconsole"
echo "OK"
;;
stop)
# Oracle listener and instance shutdown
echo -n "Shutdown Oracle: "
su $ORA_OWNR -c "$ORACLE_HOME/bin/lsnrctl stop"
su $ORA_OWNR -c "$ORACLE_HOME/bin/dbshut"
rm -f /var/lock/oracle
su $ORA_OWNR -c "$ORACLE_HOME/bin/emctl stop dbconsole"
echo "OK"
;;
reload|restart)
$0 stop
$0 start
;;
*)
echo "Usage: `basename $0` start|stop|restart|reload"
exit 1
esac
exit 0
设置权限,放到启动脚本中去
chmod 755 /etc/init.d/oracledb
update-rc.d oracledb defaults 99
我的 oralce 的安装盘中可能有些问题,所以如果只用上述的脚本是不能启动 listener的,要修改一下:
修改 /opt/ora10/bin/dbstart文件
查找:
# Set this to bring up Oracle Net Listener
ORACLE_HOME_LISTNER=/ade/vikrkuma_new/oracle
将其改为:
# Set this to bring up Oracle Net Listener
ORACLE_HOME_LISTNER=$ORACLE_HOME
设置后,测试一下
/etc/init.d/./oracledb reload
如果一切正常的话,会关闭一次Oracle又再重新打开。
至此就安装完毕,但这里有个小问题一直未能解决:
如果我用中文WinXP的IE去登录管理那台Oracle服务器的话,页面中的文字会随之变为中文(在英文的浏览器下,会看到是纯英文的页面),
但会有部份的字会变成“口口”字符,不知如何解决。我觉得这应该是Java问题,因为之前用tomcat写 jsp 的时候,如果character
encoding没写好的话,也会出现这样的问题,但在Oracle中我还不知如何解决。
上一次由flexitime于2007-10-24 周三, 17:43修改,总共修改了1次
写的好,我这几天也正好搞这个,关于这个中文的问题,我已经解决了,就是你可以不使用Oracle自带的
JDK,而是可以使用自己安装的JDK,我就是用的自己安装的,至于如何设置JAVA中文,你可以看下http:
//forum.ubuntu.org.cn/viewtopic.php?t=71848这篇帖子,设置好JAVA中文环境之后,你就可以将
Oracle中的JDK删掉,然后做一个符号连接,连接到你自己的JDK上就好了。呵呵。我也是先用命令行创建用户和组,但是创建出来之后,没有
oracle的目录,所以就使用系统管理中的创建,然后就没什么问题了。我还没有设置自启动,看了你的文章可以试一试。
来自:http://forum.ubuntu.org.cn/viewtopic.php?p=481122
天天都看见一些朋友在论坛上面,喊着要各种各样得教程..其实可以去这个软件得官方网站去看看.
上面得帮助真的超级详细..
-
-
-
里面还有好多帮助,而且都是FLASH得,就算你英文不太好,一步一步跟着走.也肯定能学会..
反正我是受益匪浅.
来自 :http://etxiaohei.spaces.live.com/blog/cns!cbd99b4910a27472!336.entry
window->preference->myeclipse->application server->tomcat 5, 展开Tomcat关的加号,选择那个JDK,在右边点击ADD,在弹出的窗口点击Browser定位下你的JDK所在的目录,注意一定是JDK不是JRE的目录.OK就可以了!!
来自:http://www.programfan.com/club/showpost.asp?id=11882
朋友有一只鸟,挺逗。
他们夫妻平时在家,这只鸟都说:“主人,您好!”
有一次,他出差几天回来,这只鸟见到他说:“叔叔,您好!”
他找个借口出差,在附近观察,没有什么敌情。他回来后,那只鸟还是说:“叔叔,您好!”
又有一次,她出差几天回来,这只鸟见到她就说:“阿姨,您好!”
她也找个借口出差,在附近观察,没有什么动静。她回来后,那只鸟见到她还是说:“阿姨,您好!”
他们合谋,终于把这只鸟杀了。
呵呵,这鸟。
http://quickbest.com.cn/discuz/thread-12702-1-1.html
1. 如何加大tomcat连接数
在tomcat配置文件server.xml中的<Connector ... />配置中,和连接数相关的参数有:
minProcessors:最小空闲连接线程数,用于提高系统处理性能,默认值为10
maxProcessors:最大连接线程数,即:并发处理的最大请求数,默认值为75
acceptCount:允许的最大连接数,应大于等于maxProcessors,默认值为100
enableLookups:是否反查域名,取值为:true或false。为了提高处理能力,应设置为false
connectionTimeout:网络连接超时,单位:毫秒。设置为0表示永不超时,这样设置有隐患的。通常可设置为30000毫秒。
其中和最大连接数相关的参数为maxProcessors和acceptCount。如果要加大并发连接数,应同时加大这两个参数。
web server允许的最大连接数还受制于操作系统的内核参数设置,通常Windows是2000个左右,Linux是1000个左右。Unix中如何设置这些参数,请参阅Unix常用监控和管理命令
tomcat4中的配置示例:
<Connector className="org.apache.coyote.tomcat4.CoyoteConnector"
port="8080" minProcessors="10" maxProcessors="1024"
enableLookups="false" redirectPort="8443"
acceptCount="1024" debug="0" connectionTimeout="30000" />
对于其他端口的侦听配置,以此类推。
2. tomcat中如何禁止列目录下的文件
在{tomcat_home}/conf/web.xml中,把listings参数设置成false即可,如下:
<servlet>
...
<init-param>
<param-name>listings</param-name>
<param-value>false</param-value>
</init-param>
...
</servlet>
3. 如何加大tomcat可以使用的内存
tomcat默认可以使用的内存为128MB,在较大型的应用项目中,这点内存是不够的,需要调大。
Unix下,在文件{tomcat_home}/bin/catalina.sh的前面,增加如下设置:
JAVA_OPTS='-Xms【初始化内存大小】 -Xmx【可以使用的最大内存】'
需要把这个两个参数值调大。例如:
JAVA_OPTS='-Xms256m -Xmx512m'
表示初始化内存为256MB,可以使用的最大内存为512MB
4. 设置主页根目录
<Context path="" docBase="C:\myApp" debug="0" reloadable="true"></Context>
来自:http://www.cnblogs.com/midnight/archive/2004/11/04/60398.html
Oracle Database Express Edition Installation Guide
10g Release 2 (10.2) for Linux
http://download.huihoo.com/database/oracle/
下载 Oracle Database 10g Express Edition for Linux x86
- Available for Debian, Mandriva, Novell, Red Hat and Ubuntu
文件
Oracle Database 10g Express Edition (Universal)
oracle-xe-universal_10.2.0.1-1.0_i386.deb (262,440,214 bytes) (cksum 3404538446) *Debian package
安装
debian:/home/huihoo/database/oracle# dpkg -i oracle-xe-universal_10.2.0.1-1.0_i3 86.deb
(Reading database ... 76128 files and directories currently installed.)
Unpacking oracle-xe-universal (from oracle-xe-universal_10.2.0.1-1.0_i386.deb) . ..
This system does not meet the minimum requirements for swap space. Based on
the amount of physical memory available on the system, Oracle Database 10g
Express Edition requires 1006 MB of swap space. This system has 818 MB
of swap space. Configure more swap space on the system and retry the installati on.
dpkg: error processing oracle-xe-universal_10.2.0.1-1.0_i386.deb (--install):
subprocess pre-installation script returned error exit status 1
Errors were encountered while processing:
oracle-xe-universal_10.2.0.1-1.0_i386.deb
Create 1GB swap file if needed.
dd if=/dev/zero of=/tmp/tmpswap bs=1k count=1024000
chmod 600 /tmp/tmpswap
/sbin/mkswap /tmp/tmpswap
su
# /sbin/swapon -v /tmp/tmpswap
若要卸出,可运行
swapoff /tmp/tmpswap
rm /tmp/tmpswap
再次安装
debian:/home/huihoo/database/oracle# dpkg -i oracle-xe-universal_10.2.0.1-1.0_i3 86.deb
dpkg: dependency problems prevent configuration of oracle-xe-universal:
oracle-xe-universal depends on libaio (>= 0.3.96) | libaio1 (>= 0.3.96); however:
Package libaio is not installed.
Package libaio1 is not installed.
dpkg: error processing oracle-xe-universal (--install):
dependency problems - leaving unconfigured
Errors were encountered while processing:
oracle-xe-universal
安装 package libaio libaio1
从 http://packages.debian.org/unstable/libs/libaio 获得libaio debian package
如: http://ftp.hk.debian.org/debian/pool/main/liba/libaio/libaio_0.3.104-1_i386.deb
# dpkg -i libaio_0.3.104-1_i386.deb
接着
# dpkg -i oracle-xe-universal_10.2.0.1-1.0_i3 86.deb
# /etc/init.d/oracle-xe configure
- A valid HTTP port for the Oracle Database XE graphical user interface (the default is 8080)
- A valid port for the Oracle database listener (the default is 1521)
- A password for the SYS and SYSTEM administrative user accounts
- Whether you want the database to start automatically when the computer starts
If you enter Yes, then the database starts immediately
To start the database manually, run this command:
$ /etc/init.d/oracle-xe start
To stop the database manually, use the following command:
$ /etc/init.d/oracle-xe stop
这时可看见后台启动了很多oracle 进程
oracle 7357 0.0 1.8 224664 9664 ? Ss 06:25 0:00 xe_pmon_XE
oracle 7359 0.0 1.6 224048 8300 ? Ss 06:25 0:00 xe_psp0_XE
oracle 7361 0.0 4.4 224048 23084 ? Ss 06:25 0:00 xe_mman_XE
oracle 7363 0.0 2.1 226116 11248 ? Ss 06:25 0:00 xe_dbw0_XE
oracle 7365 0.0 2.4 239608 12508 ? Ss 06:25 0:00 xe_lgwr_XE
oracle 7367 0.0 2.6 224108 13764 ? Ss 06:25 0:00 xe_ckpt_XE
oracle 7369 0.0 8.1 224648 42268 ? Ss 06:25 0:00 xe_smon_XE
oracle 7371 0.0 2.6 224108 13896 ? Ss 06:25 0:00 xe_reco_XE
oracle 7373 0.0 4.1 225716 21332 ? Ss 06:25 0:00 xe_cjq0_XE
oracle 7375 0.0 7.9 226864 40820 ? Ss 06:25 0:00 xe_mmon_XE
oracle 7377 0.0 2.0 224052 10560 ? Ss 06:25 0:00 xe_mmnl_XE
oracle 7379 0.0 1.6 224712 8280 ? Ss 06:25 0:00 xe_d000_XE
oracle 7381 0.0 1.5 224668 8036 ? Ss 06:25 0:00 xe_s000_XE
oracle 7383 0.0 1.5 224668 8040 ? Ss 06:25 0:00 xe_s001_XE
oracle 7385 0.0 1.5 224668 8044 ? Ss 06:25 0:00 xe_s002_XE
oracle 7387 0.0 1.5 224668 8048 ? Ss 06:25 0:00 xe_s003_XE
oracle 7414 0.0 2.5 224108 13000 ? Ss 06:25 0:00 xe_qmnc_XE
oracle 7424 0.0 1.7 224076 8784 ? Ss 06:25 0:00 xe_q000_XE
oracle 7426 0.0 2.0 224076 10596 ? Ss 06:25 0:00 xe_q001_XE
http://localhost:8080/
http://localhost:8080/apex
设置环境变量
#cd /usr/lib/oracle/xe/app/oracle/product/10.2.0/server/bin
# source oracle_env.csh (for C or tcsh shell)
或
# ./oracle_env.sh (for Bourne, Bash, or Korn shell)
Making Oracle Database XE Server Available to Remote Clients
1 Click the Application menu (on Gnome) or the K menu (on KDE),
then point to Oracle Database 10g Express Edition, and then Go To
Database Home Page.
2 In the Database Login page, log in as SYSTEM, enter the password, and then click Login.
3 In the Oracle Database XE home page, click Administration.
4 Under Tasks, click Manage HTTP Access.
5 Under Manage HTTP Access, select Available from local server and remove clients.
6 Click Apply Changes.
export ORACLE_HOME=/usr/lib/oracle/xe/app/oracle/product/10.2.0/server
bin/sqlplus system
Enter password:
ERROR:
ORA-12162: TNS:net service name is incorrectly specified
./sqlplus system@localhost
参考资料
来源:http://wiki.huihoo.com/index.php?title=Install_Oracle_10g_Express_Edition_on_Debian
现状:
把filter\SetCharacterEncodingFilter.class放在web-inf\classes目录
在web.xml中添加
<welcome-file-list>
<welcome-file>index.html</welcome-file>
<welcome-file>index.htm</welcome-file>
<welcome-file>index.jsp</welcome-file>
</welcome-file-list>
<filter>
<filter-name>Set Character Encoding</filter-name>
<filter-class>filters.SetCharacterEncodingFilter</filter-class>
<init-param>
<param-name>encoding</param-name>
<param-value>GBK</param-value>
</init-param>
</filter>
<filter-mapping>
<filter-name>Set Character Encoding</filter-name>
<url-pattern>/*</url-pattern>
</filter-mapping>
后,启动tomcat5.0.28,出现
2007-3-13 17:43:46 org.apache.catalina.core.StandardContext start
严重: Error filterStart
2007-3-13 17:43:46 org.apache.catalina.core.StandardContext start
严重: Context startup failed due to previous errors
解决办法:
c:\> cd 主页目录\web-inf\classes
c:\> jar cvf filters.jar filters
形成filters.jar文件,把它放在 tomcat\common\lib下,重新启动tomcat,问题解决!
综合了网上众多方案后,最终从工具选项设置到编码解决全部解决.感谢网上众多分享者的无私.
1)保持这2句的字符编码一致:
<%@ page contentType="text/html;charset=UTF-8" language="java"%>
<%@ page language="java" import="java.util.*,hy.*" pageEncoding="UTF-8"%>
2)数据库
在写JSP时,里面面有涉及到数据库操作,当保存时就会弹出
save could not be completed
原因是some characters could not be mapped using iso8859-1
<%@ page language="java" pageEncoding="GBK"%>
设成GBK或UTF-8就可以了,只要他里面的支持中文就ok了
3)eclipse设置
用eclipse 编写jsp页面或java类的时候,直接在页面里输入汉字,保存的时候出现"字符不能匹配ISO-8859-1"的错误提示,因为ISO-8859-1是 英文编码,不能识别汉字,我就想把它改为utf-8,可是我找不到能改变编码的地方,首先我打开工程的属性,在"info"里看到"Text file encoding"就世界把它改为utf-8,可是还是出现错误提示,搞了好半天还是搞不定它,就在网上找找看有没人遇到过这样的问题。对这个问题解答比 较多的是在"edit"---"set encoding"(好像这个是为单独的文件临时设置编码),可是我在eclipse里没找到(我用的是3.2,不知道是不是这个原因),后来又找到一个 解释:设置默认编码:
window-->preferences-->general-->editor-->text file encoding,
我打开perferences还是没有找到,狂晕~~~~~~~~~,
接着看看别的地方有没有设置编码的地方,
还是没有找到..........
又回到perferences,觉得还是在这里可以解决,呵呵,问题还是出在这里,
我找到"General"--"Content Types",
右边有个树形的text,
展开找到"JSP",开始没发现,
那家伙躲在最低下...........,
大家不要像我粗心,
最低下有个"Default encoding",
里面默认的是"ISO-8859-1",
终于找到了,
删掉"ISO-8859-1"填上"UTF-8",
在点一下"update",
OK。再保存,
就没有错误了..............
4)tomcat中设置server.xml
<Connector
port="8080" maxHttpHeaderSize="8192"
maxThreads="150" minSpareThreads="25" maxSpareThreads="75"
enableLookups="false" redirectPort="8443" acceptCount="100"
connectionTimeout="20000" disableUploadTimeout="true"
URIEncoding="GBK" useBodyEncodingForURI="true" />
4)tomcat设置数据库数据源
<Context path="/roller" docBase="E:\MyWorks\Websites\4.5K\server\apache-tomcat\webapps\roller" debug="0">
<Resource auth="Container"
type="javax.sql.DataSource"
driverClassName="com.mysql.jdbc.Driver"
url="jdbc:mysql://localhost:3306/test?autoReconnect=true&useUnicode=true&characterEncoding=utf-8&mysqlEncoding=utf8"
username="root"
password=""
maxActive="20"
maxIdle="3"
removeAbandoned="true"
maxWait="3000" />
<!-- If you want e-mail features, un-comment the section below -->
<!--
<Resource auth="Container"
type="javax.mail.Session"
mail.smtp.host="mailhost.example.com" />
-->
</Context>
5)提交表单
1 表单提交的数据,用request.getParameter(“xxx”)返回的字符串为乱码或者??
2 直接通过url如http://localhost/a.jsp?name=中国,这样的get请求在服务端用request. getParameter(“name”)时返回的是乱码;按tomcat4的做法设置Filter也没有用或者用request.setCharacterEncoding("GBK");也不管用
原因:
1 tomcat的j2ee实现对表单提交即post方式提示时处理参数采用缺省的iso-8859-1来处理
2 tomcat对get方式提交的请求对query-string 处理时采用了和post方法不一样的处理方式。(与tomcat4不一样,所以设置setCharacterEncoding(“gbk”))不起作用。
解决办法:
首先所有的jsp文件都加上:
1 实现一个Filter.设置处理字符集为GBK。(在tomcat的webapps/servlet-examples目录有一个完整的例子。请参考web.xml和SetCharacterEncodingFilter的配置。)
1)只要把%TOMCAT安装目录%/ webapps\servlets-examples\WEB-INF\classes\filters\SetCharacterEncodingFilter.class文件拷到你的webapp目录/filters下,如果没有filters目录,就创建一个。
2)在你的web.xml里加入如下几行:
<filter>
<filter-name>Set Character Encoding</filter-name>
<filter-class>filters.SetCharacterEncodingFilter</filter-class>
<init-param>
<param-name>encoding</param-name>
<param-value>GBK</param-value>
</init-param>
</filter>
<filter-mapping>
<filter-name>Set Character Encoding</filter-name>
<url-pattern>/*</url-pattern>
</filter-mapping>
3)完成.
2 get方式的解决办法
1) 打开tomcat的server.xml文件,找到区块,加入如下一行:
URIEncoding=”GBK”
完整的应如下:
<Connector
port="80" maxThreads="150" minSpareThreads="25" maxSpareThreads="75"
enableLookups="false" redirectPort="8443" acceptCount="100"
debug="0" connectionTimeout="20000"
disableUploadTimeout="true"
URIEncoding="GBK"
/>
2)重启tomcat,一切OK。
执行如下jsp页页测试是否成功
<%@ page contentType="text/html;charset=gb2312"%>
<%@ page import="java.util.*"%>
<%
String q=request.getParameter("q");
q = q == null? "没有值" : q;
%>
<HTML>
<HEAD><TITLE>新闻列表显示</TITLE>
<META http-equiv=Content-Type content="text/html; charset=gb2312">
<META http-equiv=pragma content=no-cache>
<body>
你提交了:
<%=q%>
<br>
<form action="tcnchar.jsp" method="post">
输入中文:<input type="text" ><input type="submit" value="确定">
<br>
<a href="tcnchar.jsp?q=中国">通过get方式提交</a>
</form>
</BODY></HTML>
测试结果如果你输入文本框或者点超链都会显示:你提交了”中国”,说明成功!!!!!
6) 一不小心看到一个非常好的办法,可以让我们不必写
new String(st.getBytes("ISO8859_1"),"GBK")
。
详细如下
只要修改一个地方就行了,文件为: tomcat4/src/catalina/src/share/org/apache/catalina/connector/HttpReque stBase.java
找到protected void parseParameters()方法,把
if (encoding == null) encoding = "ISO-8859-1";
改为
if (encoding == null) encoding = "GBK";
然后编译
javac HttpRequestBase.java生成两个class文件.再然后用jar命令把它打包成原来的catalina.jar,覆盖原来的,最后重新启动tomcat就可以。
查看软件xxx安装内容
dpkg -L xxx
查找软件
apt-cache search 正则表达式
查找文件属于哪个包
dpkg -S filename apt-file search filename
查询软件xxx依赖哪些包
apt-cache depends xxx
查询软件xxx被哪些包依赖
apt-cache rdepends xxx
增加一个光盘源
sudo apt-cdrom add
系统升级
sudo apt-get update sudo apt-get upgrade sudo apt-get dist-upgrade
清除所以删除包的残余配置文件
dpkg -l |grep ^rc|awk '{print $2}' |tr ["\n"] [" "]|sudo xargs dpkg -P -
编译时缺少h文件的自动处理
sudo auto-apt run ./configure
查看安装软件时下载包的临时存放目录
ls /var/cache/apt/archives
备份当前系统安装的所有包的列表
dpkg --get-selections | grep -v deinstall > ~/somefile
从上面备份的安装包的列表文件恢复所有包
dpkg --set-selections < ~/somefile sudo dselect
清理旧版本的软件缓存
sudo apt-get autoclean
清理所有软件缓存
sudo apt-get clean
删除系统不再使用的孤立软件
sudo apt-get autoremove
查看包在服务器上面的地址
apt-get -qq --print-uris install ssh | cut -d\' -f2
系统
查看内核
uname -a
查看Ubuntu版本
cat /etc/issue
查看内核加载的模块
lsmod
查看PCI设备
lspci
查看USB设备
lsusb
查看网卡状态
sudo ethtool eth0
查看CPU信息
cat /proc/cpuinfo
显示当前硬件信息
lshw
硬盘
查看硬盘的分区
sudo fdisk -l
查看IDE硬盘信息
sudo hdparm -i /dev/hda
查看STAT硬盘信息
sudo hdparm -I /dev/sda 或 sudo apt-get install blktool sudo blktool /dev/sda id
查看硬盘剩余空间
df -h df -H
查看目录占用空间
du -hs 目录名
优盘没法卸载
sync fuser -km /media/usbdisk
内存
查看当前的内存使用情况
free -m
进程
查看当前有哪些进程
ps -A
中止一个进程
kill 进程号(就是ps -A中的第一列的数字) 或者 killall 进程名
强制中止一个进程(在上面进程中止不成功的时候使用)
kill -9 进程号 或者 killall -9 进程名
图形方式中止一个程序
xkill 出现骷髅标志的鼠标,点击需要中止的程序即可
查看当前进程的实时状况
top
查看进程打开的文件
lsof -p
ADSL 配置 ADSL
sudo pppoeconf
ADSL手工拨号
sudo pon dsl-provider
激活 ADSL
sudo /etc/ppp/pppoe_on_boot
断开 ADSL
sudo poff
查看拨号日志
sudo plog
如何设置动态域名
#首先去http://www.3322.org申请一个动态域名 #然后修改 /etc/ppp/ip-up 增加拨号时更新域名指令 sudo vim /etc/ppp/ip-up #在最后增加如下行 w3m -no-cookie -dump 'http://username:password@members.3322.org/dyndns/update?system=dyndns&hostname=yourdns.3322.org'
网络
根据IP查网卡地址
arping IP地址
查看当前IP地址
ifconfig eth0 |awk '/inet/ {split($2,x,":");print x[2]}'
查看当前外网的IP地址
w3m -no-cookie -dumpwww.ip138.com|grep-o '[0-9]\{1,3\}\.[0-9]\{1,3\}\.[0-9]\{1,3\}\.[0-9]\{1,3\}' w3m -no-cookie -dumpwww.123cha.com|grep-o '[0-9]\{1,3\}\.[0-9]\{1,3\}\.[0-9]\{1,3\}\.[0-9]\{1,3\}' w3m -no-cookie -dump ip.loveroot.com|grep -o '[0-9]\{1,3\}\.[0-9]\{1,3\}\.[0-9]\{1,3\}\.[0-9]\{1,3\}'
查看当前监听80端口的程序
lsof -i :80
查看当前网卡的物理地址
arp -a | awk '{print $4}' ifconfig eth0 | head -1 | awk '{print $5}'
立即让网络支持nat
sudo echo 1 > /proc/sys/net/ipv4/ip_forward sudo iptables -t nat -I POSTROUTING -j MASQUERADE
查看路由信息
netstat -rn sudo route -n
手工增加删除一条路由
sudo route add -net 192.168.0.0 netmask 255.255.255.0 gw 172.16.0.1 sudo route del -net 192.168.0.0 netmask 255.255.255.0 gw 172.16.0.1
修改网卡MAC地址的方法
sudo ifconfig eth0 down #关闭网卡 sudo ifconfig eth0 hw ether 00:AA:BB:CC:DD:EE #然后改地址 sudo ifconfig eth0 up #然后启动网卡
统计当前IP连接的个数
netstat -na|grep ESTABLISHED|awk '{print $5}'|awk -F: '{print $1}'|sort|uniq -c|sort -r -n netstat -na|grep SYN|awk '{print $5}'|awk -F: '{print $1}'|sort|uniq -c|sort -r -n
统计当前20000个IP包中大于100个IP包的IP地址
tcpdump -tnn -c 20000 -i eth0 | awk -F "." '{print $1"."$2"."$3"."$4}' | sort | uniq -c | sort -nr | awk ' $1 > 100 '
屏蔽IPV6
echo "blacklist ipv6" | sudo tee /etc/modprobe.d/blacklist-ipv6
服务
添加一个服务
sudo update-rc.d 服务名 defaults 99
删除一个服务
sudo update-rc.d 服务名 remove
临时重启一个服务
/etc/init.d/服务名 restart
临时关闭一个服务
/etc/init.d/服务名 stop
临时启动一个服务
/etc/init.d/服务名 start
设置
配置默认Java使用哪个
sudo update-alternatives --config java
修改用户资料
sudo chfn userid
给apt设置代理
export http_proxy=http://xx.xx.xx.xx:xxx
修改系统登录信息
sudo vim /etc/motd
中文
转换文件名由GBK为UTF8
sudo apt-get install convmv convmv -r -f cp936 -t utf8 --notest --nosmart *
批量转换src目录下的所有文件内容由GBK到UTF8
find src -type d -exec mkdir -p utf8/{} \; find src -type f -exec iconv -f GBK -t UTF-8 {} -o utf8/{} \; mv utf8/* src rm -fr utf8
转换文件内容由GBK到UTF8
iconv -f gbk -t utf8 $i > newfile
转换 mp3 标签编码
sudo apt-get install python-mutagen find . -iname “*.mp3” -execdir mid3iconv -e GBK {} \;
控制台下显示中文
sudo apt-get install zhcon 使用时,输入zhcon即可
文件
快速查找某个文件
whereis filename
find 目录 -name 文件名
查看文件类型
file filename
显示xxx文件倒数6行的内容
tail -n 6 xxx
让tail不停地读地最新的内容
tail -n 10 -f /var/log/apache2/access.log
查看文件中间的第五行(含)到第10行(含)的内容
sed -n '5,10p' /var/log/apache2/access.log
查找包含xxx字符串的文件
grep -l -r xxx .
查找关于xxx的命令
apropos xxx man -k xxx
通过ssh传输文件
scp -rp /path/filenameusername@remoteIP:/path#将本地文件拷贝到服务器上 scp -rpusername@remoteIP:/path/filename/path #将远程文件从服务器下载到本地
查看某个文件被哪些应用程序读写
lsof 文件名
把所有文件的后辍由rm改为rmvb
rename 's/.rm$/.rmvb/' *
把所有文件名中的大写改为小写
rename 'tr/A-Z/a-z/' *
删除特殊文件名的文件,如文件名:--help.txt
rm -- --help.txt 或者 rm ./--help.txt
查看当前目录的子目录
ls -d */. 或 echo */.
将当前目录下最近30天访问过的文件移动到上级back目录
find . -type f -atime -30 -exec mv {} ../back \;
将当前目录下最近2小时到8小时之内的文件显示出来
find . -mmin +120 -mmin -480 -exec more {} \;
删除修改时间在30天之前的所有文件
find . -type f -mtime +30 -mtime -3600 -exec rm {} \;
查找guest用户的以avi或者rm结尾的文件并删除掉
find . -name '*.avi' -o -name '*.rm' -user 'guest' -exec rm {} \;
查找的不以java和xml结尾,并7天没有使用的文件删除掉
find . ! -name *.java ! -name ‘*.xml’ -atime +7 -exec rm {} \;
统计当前文件个数
ls /usr/bin|wc -w
统计当前目录个数
ls -l /usr/bin|grep ^d|wc -l
显示当前目录下2006-01-01的文件名
ls -l |grep 2006-01-01 |awk '{print $8}'
压缩
解压缩 xxx.tar.gz
tar -zxvf xxx.tar.gz
解压缩 xxx.tar.bz2
tar -jxvf xxx.tar.bz2
压缩aaa bbb目录为xxx.tar.gz
tar -zcvf xxx.tar.gz aaa bbb
压缩aaa bbb目录为xxx.tar.bz2
tar -jcvf xxx.tar.bz2 aaa bbb
Nautilus
显示隐藏文件
Ctrl+h
显示地址栏
Ctrl+l
特殊 URI 地址
* computer:/// - 全部挂载的设备和网络 * network:/// - 浏览可用的网络 * burn:/// - 一个刻录 CDs/DVDs 的数据虚拟目录 * smb:/// - 可用的 windows/samba 网络资源 * x-nautilus-desktop:/// - 桌面项目和图标 *file:///- 本地文件 * trash:/// - 本地回收站目录 * ftp:// - FTP 文件夹 * ssh:// - SSH 文件夹 * fonts:/// - 字体文件夹,可将字体文件拖到此处以完成安装 * themes:/// - 系统主题文件夹
查看已安装字体
在nautilus的地址栏里输入”fonts:///“,就可以查看本机所有的fonts
程序
详细显示程序的运行信息
strace -f -F -o outfile
日期和时间
设置日期
#date -s mm/dd/yy
设置时间
#date -s HH:MM
将时间写入CMOS
hwclock --systohc
读取CMOS时间
hwclock --hctosys
从服务器上同步时间
sudo ntpdate time.nist.gov sudo ntpdate time.windows.com
控制台
不同控制台间切换
Ctrl + ALT + ← Ctrl + ALT + →
指定控制台切换
Ctrl + ALT + Fn(n:1~7)
控制台下滚屏
SHIFT + pageUp/pageDown
控制台抓图
setterm -dump n(n:1~7)
数据库
mysql的数据库存放在地方
/var/lib/mysql
从mysql中导出和导入数据
mysqldump 数据库名 > 文件名 #导出数据库 mysqladmin create 数据库名 #建立数据库 mysql 数据库名 < 文件名 #导入数据库
忘了mysql的root口令怎么办
sudo /etc/init.d/mysql stop sudo mysqld_safe --skip-grant-tables & sudo mysqladmin -u user password 'newpassword'' sudo mysqladmin flush-privileges
修改mysql的root口令
sudo mysqladmin -uroot -p password '你的新密码'
其它
下载网站文档
wget -r -p -np -khttp://www.21cn.com· -r:在本机建立服务器端目录结构; · -p: 下载显示HTML文件的所有图片; · -np:只下载目标站点指定目录及其子目录的内容; · -k: 转换非相对链接为相对链接。
如何删除Totem电影播放机的播放历史记录
rm ~/.recently-used
如何更换gnome程序的快捷键
点击菜单,鼠标停留在某条菜单上,键盘输入任意你所需要的键,可以是组合键,会立即生效; 如果要清除该快捷键,请使用backspace
vim 如何显示彩色字符
sudo cp /usr/share/vim/vimcurrent/vimrc_example.vim /usr/share/vim/vimrc
如何在命令行删除在会话设置的启动程序
cd ~/.config/autostart rm 需要删除启动程序
如何提高wine的反应速度
sudo sed -ie '/GBK/,/^}/d' /usr/share/X11/locale/zh_CN.UTF-8/XLC_LOCALE
chgrp
[语法]: chgrp [-R] 文件组 文件...
[说明]: 文件的GID表示文件的文件组,文件组可用数字表示, 也可用一个有效的组名表示,此命令改变一个文件的GID,可参看chown。
-R 递归地改变所有子目录下所有文件的存取模式
[例子]:
chgrp group file 将文件 file 的文件组改为 group
chmod
[语法]: chmod [-R] 模式 文件...
或 chmod [ugoa] {+|-|=} [rwxst] 文件...
[说明]: 改变文件的存取模式,存取模式可表示为数字或符号串,例如:
chmod nnnn file , n为0-7的数字,意义如下:
4000 运行时可改变UID
2000 运行时可改变GID
1000 置粘着位
0400 文件主可读
0200 文件主可写
0100 文件主可执行
0040 同组用户可读
0020 同组用户可写
0010 同组用户可执行
0004 其他用户可读
0002 其他用户可写
0001 其他用户可执行
nnnn 就是上列数字相加得到的,例如 chmod 0777 file 是指将文件 file 存取权限置为所有用户可读可写可执行。
-R 递归地改变所有子目录下所有文件的存取模式
u 文件主
g 同组用户
o 其他用户
a 所有用户
+ 增加后列权限
- 取消后列权限
= 置成后列权限
r 可读
w 可写
x 可执行
s 运行时可置UID
t 运行时可置GID
[例子]:
chmod 0666 file1 file2 将文件 file1 及 file2 置为所有用户可读可写
chmod u+x file 对文件 file 增加文件主可执行权限
chmod o-rwx 对文件file 取消其他用户的所有权限
chown
[语法]: chown [-R] 文件主 文件...
[说明]: 文件的UID表示文件的文件主,文件主可用数字表示, 也可用一个有效的用户名表示,此命令改变一个文件的UID,仅当此文件的文件主或超级用户可使用。
-R 递归地改变所有子目录下所有文件的存取模式
[例子]:
chown mary file 将文件 file 的文件主改为 mary
chown 150 file 将文件 file 的UID改为150
http://zone.pemp.cn/?uid-3-action-viewspace-itemid-240
本来想要自己编译,无奈总是不成功,后来还是安装了现成的deb包。
在新立得软件包管理器搜索amule安装,运行后,需要自己更改一下ed2k的服务器列表和kad的nodes。
以下为ed2k的服务器列表文件地址:
http://www.esel-paradies.de/server/all/server.met
http://www.emule.org.cn/server.met
或者到如下地址自己找:
http://ed2k.2x4u.de/index.html
以下为kad的nodes文件地址:
http://www.emule-inside.net/nodes.dat
http://renololo1.free.fr/e/nodes.dat
如果想要在firefox中把ed2k关联到amule,那么首先安装amule-utils。
在firefox地址栏中输入about:config
新建一个Boolean,名字为network.protocol-handler.external.ed2k,值为true
新建一个String,名字为network.protocol-handler.app.ed2k,值为/usr/bin/ed2k.amule或者ed2k.amule或者ed2k(我的amule 2.1.3就是ed2k)
这样就OK了。这时候点击一个ed2k链接将会出现一个启动相应应用程序的提示。点击启动后, 这个ed2k链接将会被加入下载队列。前提是amule必须是已经开启着的。
如果你想在点一个ed2k链接的时候不出现提示,那么新建一个Boolean,名字为network.protocol-handler.warn-external.ed2k,值为false
刚刚又搜索了一下,发现自己编译安装amule,大概需要三步——wxBase、wxGTK和amule,今天太累了,等以后重装系统的时候再自己作实验吧。
来自:http://hi.baidu.com/emlary/blog/item/e64fcf113c296312b8127bf6.html
sudo apt-get install firestarter
Firestarter的启动脚本是/etc/init.d/firestarter,其中执行了
/etc/firestarter/firestarter.sh来启动防火墙,因此,其实Firestarter真正的启动脚本是
/etc/firestarter/firestarter.sh。
编辑/etc/firestarter/firestarter.sh
根据本机ifconfig的输出信息来修改以下几行代码:
IP=`/sbin/ifconfig $IF | grep inet | cut -d : -f 2 | cut -d \ -f 1`
MASK=`/sbin/ifconfig $IF | grep Mas | cut -d : -f 4`
BCAST=`/sbin/ifconfig $IF |grep Bcast: | cut -d : -f 3 | cut -d \ -f 1`
例如,我的系统使用eth0上网,就执行ifconfig eth0。其中IP地址依然可以通过以上代码的第一行获取,只是子网掩码和广播地址的获取会有问题。于是保留第一行不做修改,将后两行代码中grep搜索的英文字符串改为相应中文字符串即可。
IP=`/sbin/ifconfig $IF | grep inet | cut -d : -f 2 | cut -d \ -f 1`
MASK=`/sbin/ifconfig $IF | grep 掩码: | cut -d : -f 4`
BCAST=`/sbin/ifconfig $IF |grep 广播: | cut -d : -f 3 | cut -d \ -f 1`
保存文件后,启动Firestarter。一切正常。
(以上来来自http://sanhex.bloggerspaces.com/index.html)
来自:http://dingwl.spaces.live.com/Blog/cns!ED2CFB949D04FD0F!220.entry
服务器采用ubuntu作为操作系统,两块网卡,一块接外网(eth0),一块接内网(eth1)。采用shorewall作为防火墙。
配置网卡:
sudo vi
/etc/network/interfaces
ubuntu下设置shorewall防火墙
服务器采用ubuntu作为操作系统,两块网卡,一块接外网(eth0),一块接内网(eth1)。采用shorewall作为防火墙。
配置网卡:
sudo vi
/etc/network/interfaces
------------------------------------------------
#
This file describes the network interfaces available on your system
# and how
to activate them. For more information, see interfaces(5).
# The loopback network interface
auto lo
iface lo inet loopback
# This is a list of hotpluggable network interfaces.
# They will be
activated automatically by the hotplug subsystem.
mapping hotplug
script
grep
map eth0
# The primary network interface
iface eth0 inet static
address
192.168.2.250
netmask 255.255.255.0
network 192.168.2.0
broadcast
192.168.2.255
gateway 192.168.2.1
# dns-* options are implemented by the
resolvconf package, if installed
dns-nameservers 202.96.209.6
auto eth1
iface eth1 inet static
address 192.168.10.254
netmask
255.255.255.0
network 192.168.10.0
broadcast 192.168.10.255
-----------------------------------------------------
1、安装shorewall
sudo apt-get install shorewall
2、拷贝配置文件
sudo cp /usr/share/shorewall/modules /etc/shorewall
sudo cp
/usr/share/doc/shorewall/default-config/policy /etc/shorewall/
sudo cp
/usr/share/doc/shorewall/default-config/nat /etc/shorewall/
sudo cp
/usr/share/doc/shorewall/default-config/zones /etc/shorewall/
sudo cp
/usr/share/doc/shorewall/default-config/maclist /etc/shorewall/
sudo cp
/usr/share/doc/shorewall/default-config/blacklist /etc/shorewall/
sudo cp
/usr/share/doc/shorewall/default-config/interfaces
/etc/shorewall/interfaces
sudo cp
/usr/share/doc/shorewall/default-config/rules /etc/shorewall/rules
sudo cp
/usr/share/doc/shorewall/default-config/hosts /etc/shorewall/hosts
sudo cp
/usr/share/doc/shorewall/default-config/masq /etc/shorewall/masq
3、配置网卡
sudo vi /etc/shorewall/interfaces
在倒数第二行,也就是在 “#LAST LINE -- ADD YOUR ENTRIES BEFORE THIS ONE -- DO NOT REMOVE”
这一行之后加上:
net eth0 detect
loc eth1 detect
4、配置网络别名
sudo vi /etc/shorewall/zones
在倒数第二行,也就是在 “#LAST LINE -- ADD YOUR ENTRIES BEFORE THIS ONE -- DO NOT REMOVE”
这一行之后加上:
net Net Internet
loc Local Local Networks
5、配置IP伪装,也就是透明代理
sudo vi /etc/shorewall/masq
在倒数第二行,也就是在 “#LAST LINE -- ADD YOUR ENTRIES BEFORE THIS ONE -- DO NOT REMOVE”
这一行之后加上:
eth0 eth1
6、配置策略
sudo vi /etc/shorewall/policy
在#LAST LINE -- DO NOT REMOVE这一行最后加上:
loc net ACCEPT
net all DROP info
all all REJECT info
7、配置防火墙规则
sudo vi /etc/shorewall/rules
在倒数第二行,也就是在 “#LAST LINE -- ADD YOUR ENTRIES BEFORE THIS ONE -- DO NOT REMOVE”
这一行后加上:
#incoming traffic (由 internet 去 firewall)
AllowSSH net fw
AllowDNS net
fw
AllowWeb net fw
AllowSMB net fw
AllowNNTP net fw
AllowNTP net
fw
AllowRdate net fw
AllowSMTP net fw
DropPing net fw
#outgoing traffic (由 firewall 去 internet)
AllowWeb fw net
AllowDNS fw
net
AllowSMTP fw net
AllowSMB fw net
AllowSMTP fw net
AllowNNTP fw
net
AllowNTP fw net
AllowRdate fw net
AllowSSH fw net
#open special ports
ACCEPT net fw tcp 9980
8、修改 shorewall.conf 自动开启 IP 转发
sudo gedit /etc/shorewall/shorewall.conf
查找到:
IP_FORWARDING=Keep
修改为:
IP_FORWARDING=On
# 保存关闭文件
9、修改 /etc/default/shorewall 自动运行防火墙
sudo vi /etc/default/shorewall
查找到:
startup=0
修改为:
startup=1
10、启动防火墙
sudo shorewall start
11、至此防火墙配置完成。
traceback:
http://blog.chinaunix.net/u/11295/showart.php?id=60993
一、安装依赖包
sudo apt-get install libx11-6 libx11-dev libxtst6 xinetd
sudo apt-get install linux-headers-`uname -r` build-essential
二、从vmware官方网站下载最新版vmware-server for linux(ver:1.0.2)
http://www.vmware.com/download/server/ 记得要注册取得授权号码哟
三、解压并安装
tar zxvf VMware-server-1.0.2-39867.tar.gz
cd vmware-server-distrib
sudo vmware-install.pl
可以直接一路默认下去就好,但这不会安装成功,会出现以下错误:
Building the vmmon module.
Using 2.6.x kernel build system.
make: Entering directory `/tmp/vmware-config0/vmmon-only''
make -C /lib/modules/2.6.20-15-generic/build/include/.. SUBDIRS=$PWD SRCROOT=$PWD/. modules
make[1]: Entering directory `/usr/src/linux-headers-2.6.20-15-generic''
CC [M] /tmp/vmware-config0/vmmon-only/linux/driver.o
In file included from /tmp/vmware-config0/vmmon-only/linux/driver.c:80:
/tmp/vmware-config0/vmmon-only/./include/compat_kernel.h:21: 错误: expected declaration specifiers or ‘...’ before ‘compat_exit’
/tmp/vmware-config0/vmmon-only/./include/compat_kernel.h:21: 错误: expected declaration specifiers or ‘...’ before ‘exit_code’
/tmp/vmware-config0/vmmon-only/./include/compat_kernel.h:21: 警告: 在 ‘_syscall1’ 的声明中,类型默认为 ‘int’
make[2]: *** [/tmp/vmware-config0/vmmon-only/linux/driver.o] 错误 1
make[1]: *** [_module_/tmp/vmware-config0/vmmon-only] 错误 2
make[1]: Leaving directory `/usr/src/linux-headers-2.6.20-15-generic''
make: *** [vmmon.ko] 错误 2
make: Leaving directory `/tmp/vmware-config0/vmmon-only''
Unable to build the vmmon module.
For more information on how to troubleshoot module-related problems, please
visit our Web site at "http://www.vmware.com/download/modules/modules.html" and
"http://www.vmware.com/support/reference/linux/prebuilt_modules_linux.html".
Execution aborted.
不要理它!我们去下载patch搞定
四、下载并安装patch包
wget http://jaws.go2linux.org/archivos/vmware-any-any-update109.tar.gzcd vmware-any-any-update109sudo ./runme.pl
接下来一路next就好(会出现一些警告错误,说有函数在使用前未初始化)
(T002)
traceback: http://linux.e800.com.cn/articles/2007/514/1179108976414775186_1.html
注:我是参考
此文完成安装的。感谢 andot。
RealNetworks Helix Universal Mobile Server v10.0.9.2735 下载:
helix for linux里面有三个文件。setup.bin 是安装文件
sudo chmod a+x setup.bin
sudo ./setup.bin
即可开始安装。
license.lic 是授权文件。安装过程中需要给出它的完整地址。安装时注意两个问题:
1.如果已有 www 服务,则将 helix server 的 www 装在 8080(或者其它,你随便)
2.记住管理端口,这是随机产生的。
helix 是ubuntu 启动脚本。注意修改这一句
HELIX_HOME=/helix
我的 helix server 直接装在根下,所以写成 /helix。把下载包里面的 helix(3K)这个文件拷贝到 init.d 下
注意里面的helix 跟路径,换成你安装 helix 的路径(我的是 /helix)
HELIX_HOME=/helix
加入 rc2.d 硬连接。命令如下(比如在 helix 文件所在目录下开始):
sudo cp helix /etc/init.d/helix
sudo chmod 755 /etc/init.d/helix
cd /etc/rc2.d/
ln -s /etc/init.d/helix S95helix
重启 ubuntu 即可。
手工控制 helix server 命令:
/etc/init.d/helix start
/etc/init.d/helix stop
helix serer 启动命令行:
export LD_ASSUME_KERNEL=2.4
进入 helix sever 安装目录
Bin/rmserver rmserver.cfg
即可启动 helix。
helix server 管理:
打开 http://192.168.100.4:18202/admin/index.html
注意你的端口和我不一样。在 Server Setup - Mount Points 添加挂接点,Apply 应用。(我挂接的是一个完整的40G ext3分区,专门放电影用的)
来自:http://blog.guoshuang.com/showlog.asp?log_id=4584
本文参照:http://forum.ubuntu.org.cn/about50865-0-asc-0.html,感谢fifawqm和goodlucky。
0.检测声卡
# lspci | grep audio
00:1f.5 Multimedia audio controller: Intel Corporation 82801DB/DBL/DBM (ICH4/ICH4-L/ICH4-M) AC'97 Audio Controller (rev 02)
1. sudo apt-get install build-essential ncurses-dev linux-headers-`uname -r`
2.下载alsa
a. http://www.alsa-project.org/alsa/ftp/driver/下载alsa-driver-1.0.14rc4.tar.bz2
b. http://www.alsa-project.org/alsa/ftp/lib/ 下载alsa-lib-1.0.14rc4.tar.bz2
c. http://www.alsa-project.org/alsa/ftp/utils/ 下载alsa-utils-1.0.14rc4.tar.bz2
3.解压
sudo mkdir -p /usr/src/alsa
cd /usr/src/alsa
sudo cp /下载的三个压缩包路径/* ./
sudo tar xjf alsa-driver-1.0.14rc4.tar.bz2
sudo tar xjf alsa-lib-1.0.14rc4.tar.bz2
sudo tar xjf alsa-utils-1.0.14rc4.tar.bz2
4.
装备utilities
#cd alsa-utils-1.0.14rc4
#./configure && make && make install
5.修改atiixp.c
#cd ../alsa-driver-1.0.14rc4
#sudo gedit alsa-kernel/pci/atiixp.c
在290行左右有一个结构
static struct pci_device_id snd_atiixp_ids[] = {
{ 0x1002, 0x4341, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0 }, /* SB200 */
{ 0x1002, 0x4361, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0 }, /* SB300 */
{ 0x1002, 0x4370, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0 }, /* SB400 */
{ 0, }
};
加一行,成如下
static struct pci_device_id snd_atiixp_ids[] = {
{ 0x1002, 0x4341, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0 }, /* SB200 */
{ 0x1002, 0x4361, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0 }, /* SB300 */
{ 0x1002, 0x4370, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0 }, /* SB400 */
{ 0x1002, 0x4382, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0 }, /* SB600 */
{ 0, }
};
6.
编译,安装
#./configure && make && make install
7.
#modprobe snd-atiixp
8.
#alsamixer
调节声音(注意的是,声卡是静音的,要打开)
ubuntu默认已经安装了gcc,能够编译内核模块,但是没有安装编译用户态程序所需的库文件。
插入ubuntu光盘,执行以下命令即可:sudo apt-get install build-essential
以上命令总共安装7个数据包,需要大约30M硬盘空间。
来自:http://hi.baidu.com/luotx/blog/item/06d82073fab2e31e8701b0fa.html
本来ubuntu7.04是自带gaimqq的,但是似乎登录不上,至少我是这样然后上网查了下,其他许多人也有这样的反应。看来不是我个人的 RPWT了
可以使用EVA,我试了还是挺好用的,如果你添加了cn99的源的话,在ubuntu下终端输入sudo apt-get install eva
下载EVA包括kde环境需要77M空间,下载吧。
5.6补充:今天上EVA QQ,有同事找我聊天,才发现个问题:不是输入中文。。。google了一下,问题解决了,如下:
sudo apt-get install scim-qtimm
重新登录EVA即可.
来自:http://schouse.bokee.com/6259764.html
自从装了Ubuntu和XP双系统后,变得很麻烦,每次都得在启动菜单上选来选去,浪费了不少时间。
现在想修改使XP成为默认的操作系统,怎么办呢?
其实很简单,修改 /boot/grub/menu.lst
文件,使其中default值变动一下即可。
过程如下:
1、打开命令行终端;
2、输入:
sudo cp /boot/grub/menu.lst /boot/grub/menu.lst.bak
sudo gedit /boot/grub/menu.lst
注: 第一句做备份用。
3、假设文件内容如下:
-------------------------------------------------------------
# menu.lst - See: grub(8), info grub, update-grub(8)
# grub-install(8), grub-floppy(8),
# grub-md5-crypt, /usr/share/doc/grub
# and /usr/share/doc/grub-doc/.
## default num
# Set the default entry to the entry number NUM. Numbering starts
from 0, and
# the entry number 0 is the default if the command is not
used.
#
# You can specify 'saved' instead of a number. In this case, the
default entry
# is the entry saved with the command 'savedefault'.
# WARNING: If you are using dmraid do not change this entry to
'saved' or your
# array will desync and will not let you boot your system.
default 0
## timeout sec
# Set a timeout, in SEC seconds, before automatically booting the
default entry
# (normally the first entry defined).
timeout 10
## hiddenmenu
# Hides the menu by default (press ESC to see the menu)
#hiddenmenu
## ## End Default Options ##
title Ubuntu, kernel 2.6.15-23-386
root (hd0,2)
kernel /boot/vmlinuz-2.6.15-23-386 root=/dev/hda3 ro quiet
splash
initrd /boot/initrd.img-2.6.15-23-386
savedefault
boot
title Ubuntu, kernel 2.6.15-23-386 (recovery mode)
root (hd0,2)
kernel /boot/vmlinuz-2.6.15-23-386 root=/dev/hda3 ro single
initrd /boot/initrd.img-2.6.15-23-386
boot
title Ubuntu, memtest86+
root (hd0,2)
kernel /boot/memtest86+.bin
boot
### END DEBIAN AUTOMAGIC KERNELS LIST
# This is a divider, added to separate the menu items below from
the Debian
# ones.
title Other operating systems:
root
# This entry automatically added by the Debian installer for a
non-linux OS
# on /dev/hda1
title Microsoft Windows XP Professional
root (hd0,0)
savedefault
makeactive
chainloader +1
-------------------------------------------------------------
现在default值为0,意即启动排行第一的操作系统,这里代表的就是Ubuntu,
kernel 2.6.15-23-386。
现在把它修改成“default 4”,那么XP就成为默认的操作系统了。
因为从零数起,以title打头的Microsoft Windows XP
Professional这一行排序为4。
另外我们还可以通过修改timeout的值来变更默认等待时间。
来自:http://blog.sina.com.cn/u/4c480f17010009z1
1.删除文件夹
sudo rm -rf /opt/eclipse
2. 查版本
lsb_release -a
3. 教育网开源下载飞快网站 1M/1s
[Korea, Republic Of]
Daum Communications Corp. (http)4. 国内ubuntu论坛 http://forum.ubuntu.org.cn
5. 升级命令 sudo apt-get update
6. 升级包保存地址: /var/cache/apt/archives
把这些文件拷走,重装系统需要升级时,把这些文件拷回,再使用sudo apt-get update,即不用从网站重新下载。
7. 修改启动菜单
sudo cp /boot/grub/menu.lst /boot/grub/menu.lst.bak
sudo gedit /boot/grub/menu.lst
8. 安装ADSL
sudo pppoeconf
9. 安装输入法
sudo apt-get install uim anthy scim-gtk2-immodule scim-uim \scim-chinese scim-hangul scim-tables-zh scim-tables-ja scim-tables-ko
10. 增加软件源
sudo gedit /etc/apt/sources.list
把以下增加到开头部分:
deb http://ubuntu.cn99.com/ubuntu/ feisty main restricted universe multiverse
deb http://ubuntu.cn99.com/ubuntu/ feisty-security main restricted universe multiverse
deb http://ubuntu.cn99.com/ubuntu/ feisty-updates main restricted universe multiverse
deb http://ubuntu.cn99.com/ubuntu/ feisty-backports main restricted universe multiverse
deb http://ubuntu.cn99.com/ubuntu/ feisty-proposed main restricted universe multiverse
deb http://ubuntu.cn99.com/ubuntu-cn/ feisty main restricted universe multiverse
11. 安装QQ (EVA)
sudo apt-get install eva
sudo apt-get install
scim-qtimm(输入中文)
1、首先要确保安装相关的软件
安装JAVA环境
打开终端,执行以下命令,或使用《新立得软件管理器》,在其中分别搜索“sun-java5-jre“和“sun-java5-jdk”并标记安装。
sudo apt-get install sun-java5-jre
# 如果空间富裕,建议安装一个JDK。呵呵
sudo apt-get install sun-java5-jdk
设置当前默认的java解释器
sudo update-alternatives –config java
执行后会出现类似如下的画面:
There are 4 alternatives which provide `java’.
Selection Alternative
———————————————–
1 /usr/lib/jvm/java-gcj/jre/bin/java
2 /usr/bin/gij-wrapper-4.1
3 /usr/bin/gij-wrapper-4.0
4 /usr/lib/jvm/java-1.5.0-sun/jre/bin/java
Press enter to keep the default
or type selection number:
输入 有包含 “sun” 的行的前面的数字。如上面显示,则输入 4,然后回车确定。
2、下载tomcat
$wget
http://apache.freelamp.com/jakarta/tomcat-5/v5.5.9/bin/jakarta-tomcat-5.5.9.tar.gz 我的tomcat是从 http://tomcat.apache.org/download-55.cgi这里下载的core.当然下面的文件名也要做相应的修改.
3、解压tomcat
$sudo tar zxvf jakarta-tomcat-5.5.9.tar.gz -C /opt
$sudo mv /opt/jakarta-tomcat-5.5.9 /opt/tomcat
4、确保在/etc/environment文件中有:(这一步不是很确定是否需要)
>CLASSPATH=/usr/lib/j2sdk1.5-sun/lib
>JAVA_HOME=/usr/lib/j2sdk1.5-sun
5、启动tomcat
$sudo /opt/tomcat/bin/startup.sh
如果能看到下列提示,就表明启动成功了!
>Using CATALINA_BASE: /opt/tomcat
>Using CATALINA_HOME: /opt/tomcat
>Using CATALINA_TMPDIR: /opt/tomcat/temp
>Using JRE_HOME: /usr/lib/j2sdk1.5-sun
6、测试:打开Firefox,在地址栏中输入http://localhost:8080,如果出来Tomcat的缺省界面,说明测试通过!
7、停止Tomcat服务
$sudo /opt/tomcat/bin/shutdown.sh
8、获得MySQL的JDBC,在Firefox浏览器的地址栏中输入http:
//dev.mysql.com/get/Downloads/Connector-J/mysql-connector-java-3.1.10.tar.gz/from/http:
//mysql.cbn.net.id/以得到该软件。
9、安装JDBC
$tar -zxvf mysql-connector-java-3.1.10.tar.gz
$sudo cp mysql-connector-java-3.1.10/mysql-connector-java-3.1.10-bin*.jar /usr/lib/j2sdk1.5-sun/lib
配置Tomcat的端口
Ubuntu自带的Tomcat打开的是8180端口,既不符合常规,也不利于使用。我们可以做一些简单的修改,让Tomcat使用其他的端口进行服务。在Terminal中,输入
sudo gedit /usr/share/tomcat5/conf/server.xml
在配置文件中查找
<Connector className="org.apache.coyote.tomcat5.CoyoteConnector" port="8180"
并把其中的8180替换成需要的端口。一般情况下,可以替换成80或者是8080。如果设置成80,那么在浏览器中直接输入http://localhost就可以访问到Tomcat的页面。 重新启动Tomcat生效。
设置Tomcat管理员帐号
Tomcat的用户帐号信息都保存在tomcat-users.xml的文件中,运行
sudo gedit /usr/share/tomcat5/conf/tomcat-users.xml
在</tomcat-users>的标签前添加一行
<user username="用户名" password="密码" roles="admin,manager"/>
保存并关闭。重新运行tomcat即可输入该用户名和密码,登录Tomcat的管理页面。
安装最新版本的Tomcat
我们接下来介绍直接从Apache Tomcat的主页上下载并使用最新版本5.5.17的Tomcat软件,该方法方便快捷而且并不影响系统的稳定性。
从tomcat的官方下载页面http://tomcat.apache.org/download-55.cgi
下载Binary->Core分类中的zip或者tar.gz包后,本地解压缩并将新生成的目录重命名为tomcat,以方便使用。将这个文件夹移动至某路径PATH/。 参考以上设置环境变量和端口设置等步骤,大功告成! 直接运行
PS,开始的时候用apt-get安装tomcat5.5,总是出现无法安装成功,在shutdown时,出来java异常,最后实在没有办法了,用
sudo apt-get remove tomcat5.5
把它给卸载了.重新下载安装,不用apt-get
traceback:http://blog.csdn.net/aqua_aqua/archive/2007/05/18/1614485.aspx
1、安装jdk1.5
java开源,对于桌面程序的性能提高的很显著。
(1)从sun下载jdk-1_5_0_10-linux-i586.bin
(2)默认的安装目录是/opt/jdk1.6.0
mv ./jdk-1_5_0_10-linux-i586.bin
/opt/
(2)
chmod u+x
jdk-1_5_0_10-linux-i586.bin
sudo
./jdk-1_5_0_10-linux-i586.bin
或者直接执行:
sh
./jdk-1_5_0_10-linux-i586.bin
选择yes安装
(4)配置classpath,修改所有用户的环境变量
sudo gedit /etc/profile
在文件最后添加
#set java environment
JAVA_HOME=/opt/jdk1.5.0_10
export
JRE_HOME=/opt/jdk1.5.0_10/jre
export
CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
export
PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
(5)重新启动,用命令测试jdk的版本
java -version
如果出现
Java(TM) 2 Runtime Environment,
Standard Edition (build 1.5.0_10-b03)
Java HotSpot(TM) Client VM (build
1.5.0_10-b03, mixed mode, sharing)
则表示安装成功
traceback:http://blog.sina.com.cn/u/483b51a5010008e9
授权方式:署名,非商业用途,保持一致,转载时请务必以超链接(http://www.fwolf.com/blog/post/170)的形式标明文章原始出处和作者信息及本声明。
Ubuntu
6.06
dapper对中文的支持应该说是一向不错的,包括现在默认安装就包含了scim输入法。然而,一般安装的ubuntu虽然能够显示、输入中文了,但总觉
得所显示的中文像歪瓜裂枣,很是别扭。这是很无奈的,也不是linux的错,这是因为现在几乎没有免费的中文字体库来给我们用,大家平时使用习惯了的
winxp里面的宋体、还有方正排版系统里面的仿宋体、公文中的方正小标宋等等,这些字体都是商业公司开发出来用在自己的产品中的,是有版权的,所以
linux不能拿过来就用。如果你还没有听说过字体有版权的话,上网搜索一下“胡万进”
吧,这位老兄就是当年在微软从事字体制作的一位员工,他所制作的字体的版权就是归微软公司所有。我们国家虽然对IT产业非常关注,但是更关注
windows,对开源社区和自由软件的支持几乎没有,直到今天也没有投资开发出一套免费的字体供大家使用。不过幸好有怀着共产主义信念的好同志,为我们
提供了免费的替代方案,现在我们可以使用圆体美化,还有开源的文泉驿(域名2)可以用。
本文则是参考如何使用xp带的字体来进行中文美化?一文,实践中文字体的安装,并对ubuntu的字体体系更加深入的了解一下,这样以后再安装任何字体就都不怕了。
一、准备字体文件
我一直认为,如果我拥有了一套windows
xp的使用权(通过oem方式),那么我就同时拥有了对这份windows产品的只用于我个人的任意使用权,这里面包括了对其中的字体的使用权。所以,本
文中将winxp的字体拷贝到linux下使用的做法,应该是没有侵权的。
windows的字体一般存放在c:\windows\fonts目录下,我拷贝到linux下的字体有:
simfang.ttf 仿宋体
simhei.ttf 黑体
simkai.ttf 楷体
simsun.ttf 宋体和新宋体,原文件名simsun.ttc
tahoma.ttf tahoma字体
tahomabd.ttf tahoma字体的粗体形式
verdana.ttf verdana字体
verdanab.ttf verdana字体的粗体形式
verdanai.ttf verdana字体的斜体形式
verdanaz.ttf verdana字体的粗体+斜体形式
拷贝过来的字体文件放在了/home/fwolf/tools/fonts目录下。
二、将字体加入到linux的可使用字体中
首先把字体文件链接到存放字体的目录中
cd /usr/share/fonts
ln -s /home/fwolf/tools/fonts xpfonts
cd xpfonts
mkfontscale
mkfontdir
这样作和把字体拷贝到/usr/share/fonts的一个目录下的效果是一样的。后面的两个mkfont命令是生成xpfonts目录下所包含的字体的索引信息。然后运行fc-cache命令更新字体缓存:
fc-cache
现在,应该说linux就可以使用这些新装上的中文字体了,看一下openoffic里的截图吧:
其中仿宋体的字体名是FangSong_GB2312,黑体是SimHei,楷体是KaiTi_GB2312,宋体是SimSun,字体名暂时都不是中文的。
三、修改/etc/fonts/fonts.conf的字体渲染顺序
让我们一边修改,一边分析fonts.conf这个文件的内容吧,注意部分注释(<–和–>之间的内容)和无关紧要或者重复的内容我将跳过不再解释。
<?xml version=”1.0″?> 声明这个文件是一个xml文档
<!DOCTYPE fontconfig SYSTEM “fonts.dtd”> xml文档的格式声明(dtd = document type define)
<!– /etc/fonts/fonts.conf file to configure system font access –>
<fontconfig> xml文件需要的根节点
<!–
DO NOT EDIT THIS FILE.
IT WILL BE REPLACED WHEN FONTCONFIG IS UPDATED.
LOCAL CHANGES BELONG IN ‘local.conf’.
文档中提示不要手工修改fonts.conf,个人的设定可以写入local.conf文件,并且会自动被fonts.conf读入,不过我现在还不知道怎么创建这个文件,等知道了再公布出来吧,现在先拿fonts.conf开刀,反正预先已经作了备份。
<dir>/usr/share/fonts</dir>
<dir>/usr/X11R6/lib/X11/fonts/Type1</dir> <dir>/usr/local/share/fonts</dir>
<dir>~/.fonts</dir>
所有字体文件存放的位置,其中第一个就是我们刚才放字体文件的目录/usr/share/fonts。
<!–
Accept deprecated ‘mono’ alias, replacing it with ‘monospace’
–>
<match target=”pattern”>
<test qual=”any” name=”family”>
<string>mono</string>
</test>
<edit name=”family” mode=”assign”>
<string>monospace</string>
</edit>
</match>
将本文件中的别名mono替换成全称monospace,这是xml的一个自动替换声明,使用别名的目的应该是为了简化书写或者维持对旧版本的兼容。后面还有几个替换就不再一一介绍了。
<!–
Serif faces
–> <alias>
<family>Bitstream Vera Serif</family>
<family>Vera Sans YuanTi</family> <!– added by lifesinger–>
<family>Times</family>
<family>Times New Roman</family>
Serif字型将要使用的字体顺序。当要显示Serif字型的内容时,就从下面这个列表中选择字体,匹配顺序是自上而下。可以看到已经安装的圆体美
化再这里作了修改。如果我们想把宋体作为首选,就在Bitstream Vera Serif字体前面比葫芦画瓢加上一行就可以了。
至于什么是Serif字型,以及Sans-serif字型,可以看一下细说字体 Sans Serif 与 Serif和serif vs sans serif这两篇文章,说明的很详细。我觉得把他们叫做字型或者字族,相对于字体来说,更贴切一些。
下面的Sans-serif faces、Monospace faces段中处理方式相同。
<!–
If the font still has no generic name, add sans-serif
–>
<match target=”pattern”>
又是三个替换,大概意思是如果上面的字体匹配还不成功,就尝试使用sans-serif、serif、monospace的默认字体来替换,最后如果还替换不成功,强制使用sans-serif字体。(不知道这么理解是否正确)
<!–
Some Asian fonts misadvertise themselves as monospaced when
in fact they are dual-spaced (half and full). This makes
FreeType very confused as it forces all widths to match.
Undo this magic by disabling the width forcing code –>
<match target=”font”>
<test name=”family”><string>GulimChe</string></test>
<edit name=”globaladvance”><bool>false</bool></edit>
</match>
一些亚洲字体实际使用了等宽字体,但是却没有明确的声明,这段就是为了兼容这个进行的处理,保持不变即可。
<!–
The Bitstream Vera fonts have GASP entries suggesting that hinting be
disabled below 8 ppem, but FreeType ignores those, preferring to use
the data found in the instructed hints. The initial Vera release
didn’t include the right instructions in the ‘prep’ table. Fix this
by disabling hinting manually at smaller sizes (< 8ppem)
–>
修正Bitstream Vera字体在小于8点的时候的显示问题,保持不变即可。
<!–
Load local system customization file
<include ignore_missing=”yes”>local.conf</include>
–>
加载配置文件local.conf,下面的~/.fonts.conf也是一样。
<!–
Provide required aliases for standard names
–>
<alias>
<family>serif</family>
<prefer>
<family>Bitstream Vera Serif</family>
又是三个系列字型的字体别名,不知道这个和前面的类似设置是怎么个关系,大概前面设置的是备选字体,这里是推荐字体?不过照例把我们的SimSun加进去。
<!–
Artificial oblique for fonts without an italic or oblique version
–>
对没有斜体字的字体的处理方法,保持不变即可。
<!–
Synthetic emboldening for fonts that do not have bold face available
–>
没有黑体字的字体的处理方法,保持不变即可。
<!–
These are the default Unicode chars that are expected to be blank
in fonts. All other blank chars are assumed to be broken and
won’t appear in the resulting charsets
–>
Unicode编码中在所有字体中都应该显示为空的编码表,保持不变即可。
<!– Rescan configuration every 30 seconds when FcFontSetList is called
–>
每隔30秒钟就重新检查一下本设置文件(看设置改变了没有),保持不变即可。
至此,标准的配置文件就结束了,我们需要作的主要修改也都完成了。重启X应该就能看到宋体中文的界面了。不过在fonts.conf还可以作一些其他的字体处理设置,这个在圆体美化所带的那个fonts.conf中有例子,比如:
<!– Win XP 效果 –>
<match target=”font”>
<test name=”family”><string>Vera Sans YuanTi</string></test>
<edit name=”globaladvance”><bool>false</bool></edit>
</match>
这就是指明在对Vera Sans YuanTi字体的处理中,globaladvance参数设置为false,其他的设置也多是这种语法,具体的含义和效果我就不知道了:)。
四、中文字体显示优化
按照上面的方法配置好以后,宋体能够显示了,但是字体有些发虚,那么一种简单的方法就是在
系统->首选项->字体(system->preference->font)
中选择单色(Monochrome),但是这样所有的字体包括英文字体都会有一点点的小锯齿,那么替代的方法就是通过修改fonts.conf,去掉宋体
的反锯齿,并且用黑体替代宋体的粗体。在fonts.conf中添加:
<!– 用黑体替代宋体的粗体 –>
<match target=”pattern”>
<test name=”family”><string>SimSun</string></test>
<test name=”weight” compare=”more_eq”><const>bold</const></test>
<edit name=”family” mode=”assign”><string>SimHei</string></edit>
</match>
<!– 关闭宋体的AA –>
<match target=”font”>
<test qual=”any” name=”family”><string>SimSun</string></test>
<edit name=”antialias” mode=”assign”><bool>false</bool></edit>
</match>
<!– 解决不能识别中文字体名称的问题 –>
<match target=”pattern”>
<test name=”family”><string>宋体</string></test>
<edit name=”family” mode=”assign”><string>SimSun</string></edit>
</match>
<match target=”pattern”>
<test name=”family”><string>新宋体</string></test>
<edit name=”family” mode=”assign”><string>SimSun</string></edit>
</match>
<match target=”pattern”>
<test name=”family”><string>仿宋_GB2312</string></test>
<edit name=”family” mode=”assign”><string>FangSong_GB2312</string></edit>
</match>
<match target=”pattern”>
<test name=”family”><string>楷体_GB2312</string></test>
<edit name=”family” mode=”assign”><string>KaiTi_GB2312</string></edit>
</match>
<match target=”pattern”>
<test name=”family”><string>黑体</string></test>
<edit name=”family” mode=”assign”><string>SimHei</string></edit>
</match>
为什么要用黑体替代宋体的粗体呢,因为宋体字体其实是不含粗体的,windows下也是,只是windows采用了更高级一些的方法来间接实现了宋体的粗体而已。
小结
以上就是简单的中文字体设置方法,和我对fonts.conf的简单理解,希望能对大家有用,也希望过路大侠指正错误和不足之处。另外还可以参考一下一个详细的汉化美化方案(freetype/fontconfig/xft),分析得比我深入多了。
trackback:http://www.fwolf.com/blog/post/170
本文详细介绍ubuntu下mysql数据库安装后初步设置。
1、安装mysql这个应该很简单了,而且我觉得大家在安装方面也没什么太大问题,所以也就不多说了,下面我们来讲讲配置。
2、配置mysql注意,在ubuntu下mysql缺省是只允许本地访问的,如果你要其他机器也能够访问的话,那么需要改变/etc/mysql/my.cnf配置文件了!
默认的mysql安装之后根用户是没有密码的,所以首先用根用户进入:$mysql-uroot在这里之所以用-uroot是因为我现在是一般用户(firehare),如果不加-uroot的话,mysql会以为是firehare在登录。
注意,我在这里没有进入根用户模式,因为没必要。一般来说,对mysql中的数据库进行操作,根本没必要进入根用户模式,只有在设置时才有这种可能。进入mysql之后,最要紧的就是要设置mysql中的root用户密码了,否则,mysql服务无安全可言了。
mysql>grant all privileges on *.* to root@localhost identified by "123456";
注意,我这儿用的是123456做为root用户的密码,但是该密码是不安全的,请大家最好使用大小写字母与数字混合的密码,且不少于8位。这样的话,就设置好了mysql中的root用户密码了,然后就用root用户建立你所需要的数据库。
# mysql -uroot -p
我这里就以xoops为例:
mysql>createdatabasexoops;mysql>
grantallprivilegesonxoops.*toxoops_root@localhostidentifiedby"654321";
这样就建立了一个xoops_roots的用户,它对数据库xoops有着全部权限。以后就用xoops_root来对xoops数据库进行管理,而无需要再用root用户了,而该用户的权限也只被限定在xoops数据库中。
如果你想进行远程访问或控制,那么你要做两件事:
其一:
mysql>grantallprivilegesonxoops.*toxoops_root@""identifiedby"654321";
允许xoops_root用户可以从任意机器上登入mysql。
其二:
$sudogedit/etc/mysql/my.cnf>skip-networking=>#skip-networking
这样就可以允许其他机器访问mysql了。
在ubuntu下连接数据库的gui软件:mysql-adminmysql-query-browser。
dapper升级到mysql5 php5出现乱码的处理办法问题发生在采用gbk为网站内码的数据。
一:导出数据:
mysqldump-uroot-p--default-character-set
=latin1--set-charset=gbk--skip-optmydatabse>d.sql
二:建立新的数据库:
createdatabase`newmydatabase`default
charactersetgbkcollategbk_chinese_ci;
三:重新导入数据:
mysql-uroot-p--default-character-set=
gbk-fnewmydatabase>sourced.sql.....>exit
将你的论坛或者网站的数据修改为newmydatabase就好了。
trackback:http://www.techfans.cn/SrcShow.asp?Src_ID=778
昨天再次装了Ubuntu,折腾了很久,升级到了7.04!装了个Ubuntustudio主题,修改了Grub启动菜单风格,Ubuntu启动画面,登录画面,加载画面,全部改成了统一的Ubuntustudio风格,感觉挺酷的,介绍下安装方法!
第一步:安装Ubuntustudio Theme
第二步:修改Grub启动菜单风格
引用内容
1.执行下面命令
$sudo apt-get remove grub
2.下载安装grub-gfxboot包:
grub-gfxboot.debsudo dpkg -i grub-gfxboot.deb
3.下载message包,这个包使我修改了背景和Logo做成的Ubuntustudio风格:
message.tar.bz2sudo apt-get install gfxboot
4.执行下面命令,message文件cp到自己的/boot下:
sudo tar jxvf message.tar.bz2 -C /boot
5.修改/boot/grub/menu.lst文件
sudo cp /boot/grub/menu.lst /boot/grub/menu.lst_back \\备份menu.lst
sudo gedit /boot/grub/menu.lst
找到groot部分内容,根据groot后面的值来决定下面这一行内容
比如我的groot是=(hd0,7),那么对应的应该写入
gfxmenu (hd0,7)/boot/message.ubuntu
将上面其中一行添加到 timeout xx 下
6.设置grub,执行命令:
sudo grub
在grub>命令行下依次执行下面命令
find /boot/grub/stage1
root (hd0,7) \\这一项的值取决于你的menu.lst里的groot的值
setup (hd0)
7.安装grub
sudo grub-install /dev/hda
如果显示为“Not found or not a block device.”,请改执行
sudo grub-install /dev/sda
如果显示为“/dev/sda does not have any corresponding BIOS drive. ”,那么先执行命令
sudo grub-install --recheck /dev/sda
然后再执行
sudo grub-install /dev/sda
8.重启就可以看到开机修改后的Grub画面了
第三步:修改Ubuntu启动画面,登录画面,加载画面
引用内容
一:启动画面
1.下载uplash-theme-ubuntustudio.so文件
usplash.tar.gz2.复制这个文件到一个目录,如:
/usr/lib/usplash/usplash-theme-ubuntustudio.so
3.然后给 usplash-artwork.so 建立一个软链接。
sudo ln -sf /usr/lib/usplash/usplash-theme-ubuntustudio.so /etc/alternatives/usplash-artwork.so
4.重新配置核心
sudo dpkg-reconfigure linux-image-$(uname -r)
二:登录画面
通过:System->Administration->Login Window(系统->系统管理->登录窗口),启用安装了Ubuntustudio主题后添加的Ubuntu-studio风格
三:加载画面
打
开Applications->System Tools->Configuration
Editor(应用程序->系统工具->配置编辑器),默认需要在Alacarte Menu
Editor里面勾选它才有这个选项,你也可以在终端中输入gconf-editor来打开它
找到apps->gnome-session->options这个分支,将splash_image地址改成你想要的图片地址即可
Ubuntustudio主题添加了张图片,我们改成:splash/splash_US.png就可以了
好了,这样美化后的Ubuntu就非常酷了,哈哈!装上Beryl就更完美了,哈哈,Beryl的安装就不介绍了!Enjoy...
trackback:http://www.egoday.com/blog/article.asp?id=288
# See http://help.ubuntu.com/community/UpgradeNotes for how to upgrade to
# newer versions of the distribution.
deb http://cn.archive.ubuntu.com/ubuntu/ feisty main restricted
deb-src http://cn.archive.ubuntu.com/ubuntu/ feisty main restricted
## Major bug fix updates produced after the final release of the
## distribution.
deb http://cn.archive.ubuntu.com/ubuntu/ feisty-updates main restricted
deb-src http://cn.archive.ubuntu.com/ubuntu/ feisty-updates main restricted
## N.B. software from this repository is ENTIRELY UNSUPPORTED by the Ubuntu
## team, and may not be under a free licence. Please satisfy yourself as to
## your rights to use the software. Also, please note that software in
## universe WILL NOT receive any review or updates from the Ubuntu security
## team.
deb http://cn.archive.ubuntu.com/ubuntu/ feisty universe
deb-src http://cn.archive.ubuntu.com/ubuntu/ feisty universe
## N.B. software from this repository is ENTIRELY UNSUPPORTED by the Ubuntu
## team, and may not be under a free licence. Please satisfy yourself as to
## your rights to use the software. Also, please note that software in
## multiverse WILL NOT receive any review or updates from the Ubuntu
## security team.
deb http://cn.archive.ubuntu.com/ubuntu/ feisty multiverse
deb-src http://cn.archive.ubuntu.com/ubuntu/ feisty multiverse
## Uncomment the following two lines to add software from the 'backports'
## repository.
## N.B. software from this repository may not have been tested as
## extensively as that contained in the main release, although it includes
## newer versions of some applications which may provide useful features.
## Also, please note that software in backports WILL NOT receive any review
## or updates from the Ubuntu security team.
# deb http://cn.archive.ubuntu.com/ubuntu/ feisty-backports main restricted universe multiverse
# deb-src http://cn.archive.ubuntu.com/ubuntu/ feisty-backports main restricted universe multiverse
deb http://security.ubuntu.com/ubuntu feisty-security main restricted
deb-src http://security.ubuntu.com/ubuntu feisty-security main restricted
deb http://security.ubuntu.com/ubuntu feisty-security universe
deb-src http://security.ubuntu.com/ubuntu feisty-security universe
deb http://security.ubuntu.com/ubuntu feisty-security multiverse
deb-src http://security.ubuntu.com/ubuntu feisty-security multiverse
在终端执行以下命令(第一条是备份现有服务器列表,第二条是使用Gedit编辑,您也可以使用自己喜爱的编辑器编辑。)
sudo cp /etc/apt/sources.list /etc/apt/sources.list_backup
sudo gedit /etc/apt/sources.list
从以下各服务器列表内容中选择一段替换文件中的所有内容(请根据自己网络环境设置更新服务器,以达到最快的速度。)
* Archive.ubuntu.com 更新服务器(欧洲):
#
deb http://archive.ubuntu.com/ubuntu/ dapper main restricted universe multiverse
deb http://archive.ubuntu.com/ubuntu/ dapper-security main restricted universe multiverse
deb http://archive.ubuntu.com/ubuntu/ dapper-updates main restricted universe multiverse
deb http://archive.ubuntu.com/ubuntu/ dapper-backports main restricted universe multiverse
deb http://archive.ubuntu.org.cn/ubuntu-cn/ dapper main restricted universe multiverse
* Ubuntu.cn99.com 更新服务器(江苏省常州市电信,推荐电信用户使用。):
deb http://ubuntu.cn99.com/ubuntu/ dapper main restricted universe multiverse
deb http://ubuntu.cn99.com/ubuntu/ dapper-updates main restricted universe multiverse
deb http://ubuntu.cn99.com/ubuntu/ dapper-security main restricted universe multiverse
deb http://ubuntu.cn99.com/ubuntu/ dapper-backports main restricted universe multiverse
deb http://ubuntu.cn99.com/ubuntu-cn/ dapper main restricted universe multiverse
* Mirror.lupaworld.com 更新服务器(浙江省杭州市电信,亚洲地区官方更新服务器,推荐全国用户使用。):
deb http://cn.archive.ubuntu.com/ubuntu dapper main restricted universe multiverse
deb http://cn.archive.ubuntu.com/ubuntu dapper-security main restricted universe multiverse
deb http://cn.archive.ubuntu.com/ubuntu dapper-updates main restricted universe multiverse
deb http://cn.archive.ubuntu.com/ubuntu dapper-backports main restricted universe multiverse
deb http://mirror.lupaworld.com/ubuntu/ubuntu-cn dapper main restricted universe multiverse
deb http://security.ubuntu.com/ubuntu dapper-security main restricted universe multiverse
deb-src http://cn.archive.ubuntu.com/ubuntu dapper main restricted universe multiverse
deb-src http://cn.archive.ubuntu.com/ubuntu dapper-security main restricted universe multiverse
deb-src http://cn.archive.ubuntu.com/ubuntu dapper-updates main restricted universe multiverse
deb-src http://cn.archive.ubuntu.com/ubuntu dapper-backports main restricted universe multiverse
deb-src http://security.ubuntu.com/ubuntu dapper-security main restricted universe multiverse
* 上海市 上海交通大学 更新服务器(教育网,推荐校园网和网通用户使用。)(目前已无法使用):
deb http://ftp.sjtu.edu.cn/ubuntu/ dapper main multiverse restricted universe
deb http://ftp.sjtu.edu.cn/ubuntu/ dapper-backports main multiverse restricted universe
deb http://ftp.sjtu.edu.cn/ubuntu/ dapper-proposed main multiverse restricted universe
deb http://ftp.sjtu.edu.cn/ubuntu/ dapper-security main multiverse restricted universe
deb http://ftp.sjtu.edu.cn/ubuntu/ dapper-updates main multiverse restricted universe
deb http://ftp.sjtu.edu.cn/ubuntu-cn/ dapper main multiverse restricted universe
* 北京市清华大学 更新服务器(教育网,推荐校园网和网通用户使用。):
deb http://mirror9.net9.org/ubuntu/ dapper main multiverse restricted universe
deb http://mirror9.net9.org/ubuntu/ dapper-backports main multiverse restricted universe
deb http://mirror9.net9.org/ubuntu/ dapper-proposed main multiverse restricted universe
deb http://mirror9.net9.org/ubuntu/ dapper-security main multiverse restricted universe
deb http://mirror9.net9.org/ubuntu/ dapper-updates main multiverse restricted universe
deb http://mirror9.net9.org/ubuntu-cn/ dapper main multiverse restricted universe
* 中国 台湾省台湾大学 更新服务器(推荐网通用户使用,电信PING平均响应速度41MS。)(强烈推荐,此源比较完整,较少出现同步问题)
deb http://ubuntu.csie.ntu.edu.tw/ubuntu/ dapper main restricted universe multiverse
deb-src http://ubuntu.csie.ntu.edu.tw/ubuntu/ dapper main restricted universe multiverse
deb http://ubuntu.csie.ntu.edu.tw/ubuntu/ dapper-updates main restricted universe multiverse
deb-src http://ubuntu.csie.ntu.edu.tw/ubuntu/ dapper-updates main restricted universe multiverse
deb http://ubuntu.csie.ntu.edu.tw/ubuntu/ dapper-backports main restricted universe multiverse
deb-src http://ubuntu.csie.ntu.edu.tw/ubuntu/ dapper-backports main restricted universe multiverse
deb http://ubuntu.csie.ntu.edu.tw/ubuntu/ dapper-security main restricted universe multiverse
deb-src http://ubuntu.csie.ntu.edu.tw/ubuntu/ dapper-security main restricted universe multiverse
deb http://ftp.sjtu.edu.cn/ubuntu-cn/ dapper main multiverse restricted universe
* Mirror.vmmatrix.net 更新服务器(上海市电信,推荐电信网通用户使用。)(目前已无法使用):
deb http://mirror.vmmatrix.net/ubuntu/ dapper main restricted universe multiverse
deb-src http://mirror.vmmatrix.net/ubuntu/ dapper main restricted universe multiverse
deb http://mirror.vmmatrix.net/ubuntu/ dapper-updates main restricted universe multiverse
deb-src http://mirror.vmmatrix.net/ubuntu/ dapper-updates main restricted universe multiverse
deb http://mirror.vmmatrix.net/ubuntu/ dapper-backports main restricted universe multiverse
deb-src http://mirror.vmmatrix.net/ubuntu/ dapper-backports main restricted universe multiverse
deb http://mirror.vmmatrix.net/ubuntu/ dapper-security main restricted universe multiverse
deb-src http://mirror.vmmatrix.net/ubuntu/ dapper-security main restricted universe multiverse
deb http://ftp.sjtu.edu.cn/ubuntu-cn/ dapper main multiverse restricted universe
ubuntu.cnsite.org 更新服务器 (福建省福州市 电信):
deb http://ubuntu.cnsite.org/ubuntu/ dapper main restricted universe multiverse
deb-src http://ubuntu.cnsite.org/ubuntu/ dapper main restricted universe multiverse
deb http://ubuntu.cnsite.org/ubuntu/ dapper-updates main restricted universe multiverse
deb-src http://ubuntu.cnsite.org/ubuntu/ dapper-updates main restricted universe multiverse
deb http://ubuntu.cnsite.org/ubuntu/ dapper-backports main restricted universe multiverse
deb-src http://ubuntu.cnsite.org/ubuntu/ dapper-backports main restricted universe multiverse
deb http://ubuntu.cnsite.org/ubuntu/ dapper-security main restricted universe multiverse
deb-src http://ubuntu.cnsite.org/ubuntu/ dapper-security main restricted universe multiverse
deb http://ubuntu.cnsite.org/ubuntu-cn/ dapper main multiverse restricted universe
*
到以下网址可以自定义产生若干源:http://www.ubuntulinux.nl/source-o-matic
以下网址有极其全面的源,以供补充:http://italy.copybase.ch/blog/lista-repository-
sourceslist-ottimizzata-per-ubuntu-kubuntu-linux/
# 保存编辑好的文件,执行以下命令更新。
保存编辑好的文件,执行以下命令更新。
sudo apt-get update
sudo apt-get dist-upgrade
traceback:http://www.kk.la/index.php?load=read&id=9
方法一:在你喜欢的终端输入下列指令:
gksu "update-manager -c -d"
如果有 alternate 安装 CD,也可使用这个命令:
gksu "sh /cdrom/cdromupgrade"
方法二:首先,编辑 /etc/apt/sources.list 文件,将其中的 dapper 全部替换为 edgy。
接着,在终端执行下面的指令:
sudo apt-get update && sudo apt-get dist-upgrade
如果在升级过程中出现问题,则执行下列命令:
sudo apt-get -f install
sudo dpkg --configure -a
最后,重启系统即可。
查看系统版本
cat /etc/issue 或者 lsb_release -a
traceback:http://davis.blog.51cto.com/8940/26209
Ubuntu
是一个非常好的“新”的基于 Debian 的 Linux distro,但是大大超越了 Debian。Ubuntu
带有非常强大的硬件检测功能,并且通过一些很简单的指令就可以安装 NVIDIA 和 ATI 的官方驱动程序,在 Macintosh
上的表现也非常不错,是一个值得向所有人推荐使用的 Linux 发型版!本文描述的是如何在 Ubuntu Linux 5.04 上安装 CJK
输入法。
推荐使用的输入法是 scim,默认安装好的 Ubuntu 的软件库中没有这个包,你需要打开
/etc/apt/sources.list,把 universe repository 那两行的注释去掉,然后运行一次 apt-get
update 之后,可以输入以下指令安装 scim。
$ sudo apt-get install uim anthy scim-gtk2-immodule scim-uim \
scim-chinese scim-hangul scim-tables-zh scim-tables-ja scim-tables-ko
安装好之后,需要在 X11 启动文件夹中添加 scim 条目。
$ sudo touch /etc/X11/Xsession.d/74custom-scim_startup
$ sudo chmod 646 /etc/X11/Xsession.d/74custom-scim_startup
$ echo 'export XMODIFIERS="@im=SCIM"' >> /etc/X11/Xsession.d/74custom-scim_startup
$ echo 'export GTK_IM_MODULE="scim"' >> /etc/X11/Xsession.d/74custom-scim_startup
$ echo 'export XIM_PROGRAM="scim -d"' >> /etc/X11/Xsession.d/74custom-scim_startup
$ echo 'export QT_IM_MODULE="scim"' >> /etc/X11/Xsession.d/74custom-scim_startup
$ sudo chmod 644 /etc/X11/Xsession.d/74custom-scim_startup
然后重新启动计算机之后,按 ctrl + space 就可以看到 scim 的输入条了。scim
支持一种非常方便的中英文输入切换——就是当你在输入中文的时候,如果需要突然切换到英文,只要按一下 shift
然后就可以输入英文了,输入完毕之后再按一下 shift 就可以切换回中文输入状态。在微软拼音输入法中也有这个功能。
p.s. Ubuntu 的默认安装已经带有中文字体,但是可能你会不太习惯默认的楷体。经过我的实验,在 Ubuntu 上可以使用 Mac OS
X 上的 .dfont 格式的字体,你只要把那些 Mac OS X 上的 .dfont 格式的字体文件复制到
/usr/share/fonts/ 下,然后运行一次 fc-cache -f -v 就可以了。
traceback:http://blog.chinaitlab.com/user1/441067/archives/2006/50121.html
Ubuntu 中的 root 帐号默认是被禁用了的。在这种情况 之下,如果你想要使用 root 的权限来干些事情,就需要 sudo 指令。
如果需要激活 Ubuntu 中的 root 帐号, 在 Ubuntu 中激活 root 帐号的过程如下:
1. 在终端执行 sudo passwd root 指令后,系统将会提示你设置一个新的 root 帐号密码。
2. 点击 System (系统)-> Preferences(系统管理) -> Login Window(登录桌面)
菜单,并切换到 Security (安全)选项页,然后选中其下的“Allow local system administrator
login(允许本地系统管理员登录)”选项。
执行上述两步后,你便 可以使用 root 帐号登录 Ubuntu 系统了。如果要再次禁用 root 帐号,那么可以执行 sudo passwd -l root
走了很多弯路,参考了很多文献,才把这个Math调试完毕。顺便记下,供需要的人参考。
一.软件
操作系统:Vista Ultimate
JDK: C:\Java\jdk1.5.0_03 http://java.sun.com/javase/downloads/index_jdk5.jsp
Axis: C:\axis14 Axis下载:http://archive.apache.org/dist/ws/axis/
Ant: C:\ant170 Ant下载:http://www.apache.org/dist/ant/binaries/
Tomcat : C:\Tomcat5 版本是5.0.28 Tomcat下载:http://tomcat.apache.org/
Python: C:\Python24
axis需要的jar文件下载:
activation.jar下载:http://java.sun.com/products/javabeans/glasgow/jaf.html
Javamail.jar下载:http://java.sun.com/products/javamail/
Xmlsec.jar下载:http://xml.apache.org/security/
二.环境设置:
ANT_HOME=C:\ant170
AXIS_HOME=%CATALINA_HOME%\webapps\axis
AXIS_LIB=C:\jdbc\axis_lib
AXISCLASSPATH=%AXIS_LIB%\axis.jar;%AXIS_LIB%\axis.jar;%AXIS_LIB%\commons-discovery-0.2.jar;%AXIS_LIB%\commons-logging-1.0.4.jar;%AXIS_LIB%\jaxrpc.jar;%AXIS_LIB%\saaj.jar;%AXIS_LIB%\log4j-1.2.8.jar;%AXIS_LIB%\xml-apis.jar;%AXIS_LIB%\xercesImpl.jar;%AXIS_LIB%\xalan.jar;%AXIS_LIB%\xmlsec-1.4.1.jar;%AXIS_LIB%\activation.jar;%AXIS_LIB%\mail.jar;
CATALINA_HOME=C:\Tomcat5
classpath=.;%JAVA_HOME%\lib\dt.jar;%JAVA_HOME%\lib\tools.jar;DBCLASSPATH;AXISCLASSPATH
DB_LIB=C:\jdbc\db_lib
DBCLASSPATH=%DB_LIB%\jconn2.jar;
GLOBUS_LOCATION=C:\globus
JAVA_HOME=C:\Java\jdk1.5.0_03
Path=%SystemRoot%\system32;%SystemRoot%;%SystemRoot%\System32\Wbem;%JAVA_HOME%\bin;%ANT_HOME%\bin;%GLOBUS_LOCATION%\bin;%CATALINA_HOME%\bin;
三.安装
1.jdk安装
2.tomcat安装
3.axis安装
4.globus4安装
四.调试
1.调试好jdk
2.调试好tomcat
3.调试好axis
4.调试好globus
五math的调试
math下载地址:http://gdp.globus.org/gt4-tutorial/download/progtutorial-examples_0.2.1.tar.gz
MathQNames.java/MathService.java下载:http://www.blogjava.net/Files/waterjava/globus_Math.rar
这部分参考了网上文献,红色部分是自己加上的:
step1
1 建wsdl文件
即C:\globus\schema\examples\MathService_instance\Math.wsdl
内容就直接从tutorial上拷.
2 建c:\globus\namespace2package.mappings
手册上是说的namespace2package..properties文件,但每次在编译的时侯,都是映射后的命名空间找不着,改成.mappings就OK了.这里注意每条记录只能占一行,而且"http\://"那一"\"不能乱删.
step2 写服务实现类
1 MathQNames.java
内容从手册上拷,文件建在C:\globus\org\globus\examples\services\core\first\impl\MathQNames.java处.
2 MathService.java
内容从手册上拷,文件建在C:\globus\org\globus\examples\services\core\first\impl\MathService.java处.
step3 建WSDD和JNDI部署文件
1 C:/globus/org/globus/examples/services/core/first/deploy-server.wsdd;
2 C:/globus/org/globus/examples/services/core/first/deploy-jndi-config.xml;
step4 生成gar文件
1 将下载的globus-build-service-gt4_0.2.5里面几个文件(globus-build-service.py和build.xml)先拷贝到C:\globus下
2 在C:\globus下运行命令:
globus-build-service.py -d org/globus/examples/services/core/first/ -s schema/examples/MathService_instance/Math.wsdl
如果不成功,估计要先运行d:\ws\etc\globus-devel-env.bat;
成功的话,生成d:\gt4\org_globus_examples_services_core_first.gar
step 5 部署
1 C:\globus下运行:
globus-deploy-gar c:/globus/org_globus_examples_services_core_first.gar
2 关掉tomcat
3 运行globus-start-container -nosec
如果看到你自己的MathServices服务,就说明成功了.
这样你不能通过IE看你的服务,如果要的话,我们可以把他发布到tomcat里面去,你得装Tomcat,然后用以下明明发布到tomcat里面去,ant -f share/globus_wsrf_common/tomcat/tomcat.xml deploySecureTomcat -Dtomcat.dir="C:\Tomcat5"(最后那个目录为你的tomcat的目录)
(注意)重新启动tomcat,输入http://localhost:8080/wsrf/services你就可以看到你服务了!
客户端的开发,有一个问题要注意
System.out.println("Current value:" + math.getValue(new GetValueRP()));
math.getValue修改为math.getValueRP,估计这是作者笔误.
然后是客户端编译命令:
javac -classpath ./build/stubs/classes/;%CLASSPATH% org/globus/examples/clients/MathService_instance/Client.java
如果出现:软件包org.apache.axis.message.addressing不存在;要先运行C:\globus\etc\globus-devel-env.bat;
最后运行检验:
java -classpath ./build/stubs/classes/;%CLASSPATH% org.globus.examples.clients.MathService_instance.Client http://127.0.0.1:8080/wsrf/services/examples/core/first/MathService
出现期望的数字就说明成功了.
可以看到,用了globus-build-service-gt4_0.2.5,执行步骤要比以前少很多.另外,WSDL文件个人认为也可以用Java2WSDL生成,但没有做尝试.\
ps:上传了整个d:/gt4目录.补充一点, 要运行globus-build-service.py需要python环境支持.
The Globus Toolkit 4 Programmer's Tutorial 地址:http://gdp.globus.org/gt4-tutorial/
摘要: GT4编程 First Step
1 开始前
该文档针对Windows平台已经安装完ws-core-4.0.x的用户。在继续进行之前保证已经设置环境变量GLOBUS_LOCATION,指向ws-core-4.0.x的安装目录(在我的系统中为D:\ws-core-4.0.0)。同时,为了方便,最好将D:\ws-core-4.0.0\bin目录添加到系统目录PATH中。这样可以方便我们执行Glo...
阅读全文
最近在学习网格,还是感觉很抽象,所以想自己做个例子来加深理解.花了两天时间终于搞好了.
首先,这里有详细的步骤,不过手册里面也有点点小错误http://gdp.globus.org/gt4-tutorial/multiplehtml/ch03s01.html.环境配置:ws-core-4.0.4,apache-ant-1.6.5,jdk1.5.0_09.globus-build-service-gt4_0.2.5.还有就是要运行globus-build-service.py需要python环境支持.所以得安装python.要编写、部署这样一个Web Service需要一下5个简单的步骤:
1.通过编写WSDL文件,定义服务的接口.
2.通过编写Java代码,实现上述接口定义的服务
3.编写WSDD部署描述符和JNDI.
4.使用ant编译并形成GAR(Globus ARchive)文件
5.通过GT4自带的工具部署服务
JDK,ANT,TOMCAT的安装不用多说,可选:安装补丁,直接把tomcat-native-1.1.2.tar.gz拷贝到bin\下,备份原来的tomcat-native.tar.gz,
然后把tomcat-native-1.1.2.tar.gz改名tomcat-native.tar.gz(不过我没装)
注意:axis-bin-1_4.zip
解压,把解压出来的axix目录复制到tomcat目录下的webapps目录下;
将axis/WEB-INF/lib目录下的文件复制到tomcat目录下的common/lib目录下;
重新启动tomcat;
测试:在浏览器输入http://localhost:8080/axis/happyaxis.jsp;如果能访问表示设置成功。
下面,我们分别介绍以上五个步骤:
step1定义服务接口
通过编写WSDL文件,来定义我们提供服务的接口。这样,客户端通过解析WSDL文件,从而了解服务的具体定义和调用情况。
文件的代码:(Math.wsdl)可以从手册里拷贝.
该文件被保存在EXAMPLES_DIR\schema\examples\MathService_instance目录下
其中EXAMPLES_DIR=C:\gt4.
2 建C:\gt4\namespace2package.mappings
手册上是说的namespace2package..properties文件,但每次在编译的时侯,都是映射后的命名空间找不着,改成.mappings就OK了.这里注意每条记录只能占一行,而且"http\://"那一"\"不能乱删.
step2 写服务实现类
1 MathQNames.java
内容从手册上拷,文件建在C:\gt4\org\globus\examples\services\core\first\impl\MathQNames.java处.
2 MathService.java
内容从手册上拷,文件建在C:\gt4\org\globus\examples\services\core\first\impl\MathService.java处.
3建WSDD和JNDI部署文件
1 C:/gt4/org/globus/examples/services/core/first/deploy-server.wsdd;
2 C:/gt4/org/globus/examples/services/core/first/deploy-jndi-config.xml;
step4 生成gar文件
1 将下载的globus-build-service-gt4_0.2.5里面几个文件先拷贝到C:\gt4下
2 在C:\gt4下运行命令:
globus-build-service.py -d org/globus/examples/services/core/first/ -s schema/examples/MathService_instance/Math.wsdl 从而生成build文件夹.
如果不成功,估计要先运行C:\gt4\etc\globus-devel-env.bat;(主要配置classpath,将c:\gt4\lib\*.jar,引入到classpath,),遇到
成功的话,生成d:\gt4\org_globus_examples_services_core_first.gar.
step 5 部署
1 c:\gt4下运行:
globus-deploy-gar c:/gt4/org_globus_examples_services_core_first.gar(需要python支持)
这样,我们的服务就算发布了,可以运行给外面的人用了.但是它得在那个容器里面,可以直接用GT4带的java WS Core container发布,运行如下命令
2 运行globus-start-container -nosec
如果看到你自己的MathServices服务,就说明成功了.
这样你不能通过IE看你的服务,如果要的话,我们可以把他发布到tomcat里面去,你得装Tomcat,然后用以下明明发布到tomcat里面去,ant -f share/globus_wsrf_common/tomcat/tomcat.xml deploySecureTomcat -Dtomcat.dir="C:\Program Files\Apache Software Foundation\Tomcat 5.0"(最后那个目录为你的tomcat的目录)
(注意)重新启动tomcat,输入http://localhost:8080/wsrf/services你就可以看到你服务了!
客户端的开发,有一个问题要注意(有两处)
System.out.println("Current value:" + math.getValue(new GetValueRP()));
math.getValue修改为math.getValueRP,估计这是作者笔误.
然后是客户端编译命令:
javac -classpath ./build/stubs/classes/;"%CLASSPATH%" org/globus/examples/clients/MathService_instance/Client.java
最后运行检验:java -classpath ./build/stubs/classes/;"%CLASSPATH%" org.globus.examples.clients.MathService_instance.Client http://127.0.0.1:8080/wsrf/services/examples/core/first/MathService
出现期望的数字就说明成功了.
来自:http://blog.sina.com.cn/u/49ccf52b010008b5
1、配置系统管理(Admin Web Application)
大多数商业化的J2EE服务器都提供一个功能强大的管理界面,且大都采用易于理解的Web应用界面。Tomcat按照自己的方式,同样提供一个成熟的管理工具,并且丝毫不逊于那些商业化的竞争对手。Tomcat的Admin Web Application最初在4.1版本时出现,当时的功能包括管理context、data source、user和group等。当然也可以管理像初始化参数,user、group、role的多种数据库管理等。在后续的版本中,这些功能将得到很大的扩展,但现有的功能已经非常实用了。Admin Web Application被定义在自动部署文件:CATALINA_BASE/webapps/admin.xml 。(译者注:CATALINA_BASE即tomcat安装目录下的server目录)
你必须编辑这个文件,以确定Context中的docBase参数是绝对路径。也就是说,CATALINA
_BASE/webapps/admin.xml的路径是绝对路径。作为另外一种选择,你也可以删除这个自动部署文件,而在server.xml文件中建立一个Admin Web Application的context,效果是一样的。你不能管理Admin Web Application这个应用,换而言之,除了删除CATALINA_BASE/webapps/admin.xml ,你可能什么都做不了。
如果你使用UserDatabaseRealm(默认),你将需要添加一个user以及一个role到CATALINA_BASE/conf/tomcat-users.xml文件中。你编辑这个文件,添加一个名叫“admin”的role 到该文件中,如下:
<role name="admin"/>
同样需要有一个用户,并且这个用户的角色是“admin”。象存在的用户那样,添加一个用户(改变密码使其更加安全):
<ser name="admin"
password="deep_dark_secret"
roles="admin"/>
你完成这些步骤后,请重新启动Tomcat,访问http://localhost:8080/admin,你将看到一个登录界面。Admin Web Application采用基于容器管理的安全机制,并采用了Jakarta Struts框架。一旦你作为“admin”角色的用户登录管理界面,你将能够使用这个管理界面配置Tomcat。
2、配置应用管理(Manager Web Application)
Manager Web Application让你通过一个比Admin Web Application更为简单的用户界面,执行一些简单的Web应用任务。Manager Web Application被被定义在一个自动部署文件中:
CATALINA_BASE/webapps/manager.xml
你必须编辑这个文件,以确保context的docBase参数是绝对路径,也就是说CATALINA_HOME/server/webapps/manager的绝对路径。(译者注:CATALINA_HOME即tomcat安装目录)
如果你使用的是UserDatabaseRealm,那么你需要添加一个角色和一个用户到CATALINA_BASE/conf/tomcat-users.xml文件中。接下来,编辑这个文件,添加一个名为“manager”的角色到该文件中:
<role name=”manager”>
同样需要有一个角色为“manager”的用户。像已经存在的用户那样,添加一个新用户(改变密码使其更加安全):
<user name="manager"
password="deep_dark_secret"
roles="manager"/>
然后重新启动Tomcat,访问http://localhost/manager/list,将看到一个很朴素的文本型管理界面,或者访问http://localhost/manager/html/list,将看到一个HMTL的管理界面。不管是哪种方式都说明你的Manager Web Application现在已经启动了。
Manager application让你可以在没有系统管理特权的基础上,安装新的Web应用,以用于测试。如果我们有一个新的web应用位于/home/user/hello下在,并且想把它安装到/hello下,为了测试这个应用,我们可以这么做,在第一个文件框中输入“/hello”(作为访问时的path),在第二个文本框中输入“file:/home/user/hello”(作为Config URL)。
Manager application还允许你停止、重新启动、移除以及重新部署一个web应用。停止一个应用使其无法被访问,当有用户尝试访问这个被停止的应用时,将看到一个503的错误??“503 - This application is not currently available”。
移除一个web应用,只是指从Tomcat的运行拷贝中删除了该应用,如果你重新启动Tomcat,被删除的应用将再次出现(也就是说,移除并不是指从硬盘上删除)。
3、部署一个web应用
有两个办法可以在系统中部署web服务。
1. 拷贝你的WAR文件或者你的web应用文件夹(包括该web的所有内容)到$CATALINA_BASE/webapps目录下。
2. 为你的web服务建立一个只包括context内容的XML片断文件,并把该文件放到$CATALINA_BASE/webapps目录下。这个web应用本身可以存储在硬盘上的任何地方。
如果你有一个WAR文件,你若想部署它,则只需要把该文件简单的拷贝到CATALINA_BASE/webapps目录下即可,文件必须以“.war”作为扩展名。一旦Tomcat监听到这个文件,它将(缺省的)解开该文件包作为一个子目录,并以WAR文件的文件名作为子目录的名字。
接下来,Tomcat将在内存中建立一个context,就好象你在server.xml文件里建立一样。当然,其他必需的内容,将从server.xml中的DefaultContext获得。
部署web应用的另一种方式是写一个Context XML片断文件,然后把该文件拷贝到CATALINA_BASE/webapps目录下。一个Context片断并非一个完整的XML文件,而只是一个context元素,以及对该应用的相应描述。
这种片断文件就像是从server.xml中切取出来的context元素一样,所以这种片断被命名为“context片断”。
举个例子,如果我们想部署一个名叫MyWebApp.war的应用,该应用使用realm作为访问控制方式,我们可以使用下面这个片断:
<!--
Context fragment for deploying MyWebApp.war
-->
<Context path="/demo"
docBase="webapps/MyWebApp.war"
debug="0" privileged="true">
<Realm className=
"org.apache.catalina.realm.UserDatabaseRealm"
resourceName="UserDatabase"/>
</Context>
把该片断命名为“MyWebApp.xml”,然后拷贝到CATALINA_BASE/webapps目录下。
这种context片断提供了一种便利的方法来部署web应用,你不需要编辑server.xml,除非你想改变缺省的部署特性,安装一个新的web应用时不需要重启动Tomcat。
4、配置虚拟主机(Virtual Hosts)
关于server.xml中“Host”这个元素,只有在你设置虚拟主机的才需要修改。虚拟主机是一种在一个web服务器上服务多个域名的机制,对每个域名而言,都好象独享了整个主机。实际上,大多数的小型商务网站都是采用虚拟主机实现的,这主要是因为虚拟主机能直接连接到Internet并提供相应的带宽,以保障合理的访问响应速度,另外虚拟主机还能提供一个稳定的固定IP。
基于名字的虚拟主机可以被建立在任何web服务器上,建立的方法就是通过在域名服务器(DNS)上建立IP地址的别名,并且告诉web服务器把去往不同域名的请求分发到相应的网页目录。因为这篇文章主要是讲Tomcat,我们不准备介绍在各种操作系统上设置DNS的方法,如果你在这方面需要帮助,请参考《DNS and Bind》一书,作者是Paul Albitz and Cricket Liu (O'Reilly)。为了示范方便,我将使用一个静态的主机文件,因为这是测试别名最简单的方法。
在Tomcat中使用虚拟主机,你需要设置DNS或主机数据。为了测试,为本地IP设置一个IP别名就足够了,接下来,你需要在server.xml中添加几行内容,如下:
<Server port="8005"
shutdown="SHUTDOWN" debug="0">
<Service name="Tomcat-Standalone">
<Connector className=
"org.apache.coyote.tomcat4.CoyoteConnector"
port="8080"
minProcessors="5" maxProcessors="75"
enableLookups="true"
redirectPort="8443"/>
<Connector className=
"org.apache.coyote.tomcat4.CoyoteConnector"
port="8443" minProcessors="5"
maxProcessors="75"
acceptCount="10" debug="0"
scheme="https" secure="true"/>
<Factory className="org.apache.coyote.
tomcat4.CoyoteServerSocketFactory"
clientAuth="false" protocol="TLS" />
</Connector>
<Engine name="Standalone"
defaultHost="localhost" debug="0">
<!-- This Host is the default Host -->
<Host name="localhost"
debug="0" appBase="webapps"
unpackWARs="true" autoDeploy="true">
<Context path="" docBase="ROOT" debug="0"/>
<Context path="/orders"
docBase="/home/ian/orders" debug="0"
reloadable="true" crossContext="true">
</Context>
</Host>
<!-- This Host is the first
"Virtual Host": http://www.example.com/ -->
<Host name="www.example.com"
appBase="/home/example/webapp">
<Context path="" docBase="."/>
</Host>
</Engine>
</Service>
</Server>
Tomcat的server.xml文件,在初始状态下,只包括一个虚拟主机,但是它容易被扩充到支持多个虚拟主机。在前面的例子中展示的是一个简单的server.xml版本,其中粗体部分就是用于添加一个虚拟主机。每一个Host元素必须包括一个或多个context元素,所包含的context元素中必须有一个是默认的context,这个默认的context的显示路径应该为空(例如,path=””)。
5、配置基础验证(Basic Authentication)
容器管理验证方法控制着当用户访问受保护的web应用资源时,如何进行用户的身份鉴别。当一个web应用使用了Basic Authentication(BASIC参数在web.xml文件中auto-method元素中设置),而有用户访问受保护的web应用时,Tomcat将通过HTTP Basic Authentication方式,弹出一个对话框,要求用户输入用户名和密码。在这种验证方法中,所有密码将被以64位的编码方式在网络上传输。
注意:使用Basic Authentication通过被认为是不安全的,因为它没有强健的加密方法,除非在客户端和服务器端都使用HTTPS或者其他密码加密码方式(比如,在一个虚拟私人网络中)。若没有额外的加密方法,网络管理员将能够截获(或滥用)用户的密码。
但是,如果你是刚开始使用Tomcat,或者你想在你的web应用中测试一下基于容器的安全管理,Basic Authentication还是非常易于设置和使用的。只需要添加 和 两个元素到你的web应用的web.xml文件中,并且在CATALINA_BASE/conf/tomcat-users.xml文件中添加适当的 和 即可,然后重新启动Tomcat。
下面例子中的web.xml摘自一个俱乐部会员网站系统,该系统中只有member目录被保护起来,并使用Basic Authentication进行身份验证。请注意,这种方式将有效的代替Apache web服务器中的.htaccess文件。
<!--
Define the
Members-only area,
by defining
a "Security Constraint"
on this Application, and
mapping it to the
subdirectory (URL) that we want
to restrict.
-->
<security-constraint>
<web-resource-collection>
<web-resource-name>
Entire Application
</web-resource-name>
<url-pattern>/members/*</url-pattern>
</web-resource-collection>
<auth-constraint>
<role-name>member</role-name>
</auth-constraint>
</security-constraint>
<!-- Define the Login
Configuration for
this Application -->
<login-config>
<auth-method>BASIC</auth-method>
<realm-name>My Club
Members-only Area</realm-name>
</login-config>
6、配置单点登录(Single Sign-On)
一旦你设置了realm和验证的方法,你就需要进行实际的用户登录处理。一般说来,对用户而言登录系统是一件很麻烦的事情,你必须尽量减少用户登录验证的次数。作为缺省的情况,当用户第一次请求受保护的资源时,每一个web应用都会要求用户登录。
如果你运行了多个web应用,并且每个应用都需要进行单独的用户验证,那这看起来就有点像你在与你的用户搏斗。用户们不知道怎样才能把多个分离的应用整合成一个单独的系统,所有他们也就不知道他们需要访问多少个不同的应用,只是很迷惑,为什么总要不停的登录。
Tomcat 4的“single sign-on”特性允许用户在访问同一虚拟主机下所有web应用时,只需登录一次。为了使用这个功能,你只需要在Host上添加一个SingleSignOn Valve元素即可,如下所示:
<Valve className=
"org.apache.catalina.
authenticator.SingleSignOn"
debug="0"/>
在Tomcat初始安装后,server.xml的注释里面包括SingleSignOn Valve配置的例子,你只需要去掉注释,即可使用。那么,任何用户只要登录过一个应用,则对于同一虚拟主机下的所有应用同样有效。使用single sign-on valve有一些重要的限制:
1> value必须被配置和嵌套在相同的Host元素里,并且所有需要进行单点验证的web应用(必须通过context元素定义)都位于该Host下。
2> 包括共享用户信息的realm必须被设置在同一级Host中或者嵌套之外。
3> 不能被context中的realm覆盖。
4> 使用单点登录的web应用最好使用一个Tomcat的内置的验证方式(被定义在web.xml中的 中),这比自定义的验证方式强,Tomcat内置的的验证方式包括basic、digest、form和client-cert。
5> 如果你使用单点登录,还希望集成一个第三方的web应用到你的网站中来,并且这个新的web应用使用它自己的验证方式,而不使用容器管理安全,那你基本上就没招了。你的用户每次登录原来所有应用时需要登录一次,并且在请求新的第三方应用时还得再登录一次。
当然,如果你拥有这个第三方web应用的源码,而你又是一个程序员,你可以修改它,但那恐怕也不容易做。
6> 单点登录需要使用cookies。
7、配置用户定制目录(Customized User Directores)
一些站点允许个别用户在服务器上发布网页。例如,一所大学的学院可能想给每一位学生一个公共区域,或者是一个ISP希望给一些web空间给他的客户,但这又不是虚拟主机。在这种情况下,一个典型的方法就是在用户名前面加一个特殊字符(~),作为每位用户的网站,比如:
http://www.cs.myuniversity.edu/~username
http://members.mybigisp.com/~username
Tomcat提供两种方法在主机上映射这些个人网站,主要使用一对特殊的Listener元素。Listener的className属性应该是org.apache.catalina.startup.UserConfig,userClass属性应该是几个映射类之一。
如果你的系统是Unix,它将有一个标准的/etc/passwd文件,该文件中的帐号能够被运行中的Tomcat很容易的读取,该文件指定了用户的主目录,使用PasswdUserDatabase 映射类。
<Listener className=
"org.apache.catalina.startup.UserConfig"
directoryName="public_html"
userClass="org.apache.catalina.
startup.PasswdUserDatabase"/>
web文件需要放置在像/home/users/ian/public_html或者/users/jbrittain/public_html一样的目录下面。当然你也可以改变public_html 到其他任何子目录下。
实际上,这个用户目录根本不一定需要位于用户主目录下里面。如果你没有一个密码文件,但你又想把一个用户名映射到公共的像/home一样目录的子目录里面,则可以使用HomesUserDatabase类。
<Listener className=
"org.apache.catalina.startup.UserConfig"
directoryName="public_html"
homeBase="/home"
userClass="org.apache.catalina.
startup.HomesUserDatabase"/>
这样一来,web文件就可以位于像/home/ian/public_html或者/home/jasonb/public_html一样的目录下。这种形式对Windows而言更加有利,你可以使用一个像c:\home这样的目录。
这些Listener元素,如果出现,则必须在Host元素里面,而不能在context元素里面,因为它们都用应用于Host本身。
8、在Tomcat中使用CGI脚本
Tomcat主要是作为Servlet/JSP容器,但它也有许多传统web服务器的性能。支持通用网关接口(Common Gateway Interface,即CGI)就是其中之一,CGI提供一组方法在响应浏览器请求时运行一些扩展程序。
CGI之所以被称为通用,是因为它能在大多数程序或脚本中被调用,包括:Perl,Python,awk,Unix shell scripting等,甚至包括Java。
当然,你大概不会把一个Java应用程序当作CGI来运行,毕竟这样太过原始。一般而言,开发Servlet总要比CGI具有更好的效率,因为当用户点击一个链接或一个按钮时,你不需要从操作系统层开始进行处理。
Tomcat包括一个可选的CGI Servlet,允许你运行遗留下来的CGI脚本。
为了使Tomcat能够运行CGI,你必须做如下几件事:
1. 把servlets-cgi.renametojar (在CATALINA_HOME/server/lib/目录下)改名为servlets-cgi.jar。处理CGI的servlet应该位于Tomcat的CLASSPATH下。
2. 在Tomcat的CATALINA_BASE/conf/web.xml 文件中,把关于 CGI的那段的注释去掉(默认情况下,该段位于第241行)。
3. 同样,在Tomcat的CATALINA_BASE/conf/web.xml文件中,把关于对CGI进行映射的那段的注释去掉(默认情况下,该段位于第299行)。注意,这段内容指定了HTML链接到CGI脚本的访问方式。
4. 你可以把CGI脚本放置在WEB-INF/cgi 目录下(注意,WEB-INF是一个安全的地方,你可以把一些不想被用户看见或基于安全考虑不想暴露的文件放在此处),或者你也可以把CGI脚本放置在context下的其他目录下,并为CGI Servlet调整cgiPathPrefix初始化参数。这就指定的CGI Servlet的实际位置,且不能与上一步指定的URL重名。
5. 重新启动Tomcat,你的CGI就可以运行了。
在Tomcat中,CGI程序缺省放置在WEB-INF/cgi目录下,正如前面所提示的那样,WEB-INF目录受保护的,通过客户端的浏览器无法窥探到其中内容,所以对于放置含有密码或其他敏感信息的CGI脚本而言,这是一个非常好的地方。
为了兼容其他服务器,尽管你也可以把CGI脚本保存在传统的/cgi-bin目录,但要知道,在这些目录中的文件有可能被网上好奇的冲浪者看到。另外,在Unix中,请确定运行Tomcat的用户有执行CGI脚本的权限。
9、改变Tomcat中的JSP编译器(JSP Compiler)
在Tomcat 4.1(或更高版本,大概),JSP的编译由包含在Tomcat里面的Ant程序控制器直接执行。这听起来有一点点奇怪,但这正是Ant有意为之的一部分,有一个API文档指导开发者在没有启动一个新的JVM的情况下,使用Ant。
这是使用Ant进行Java开发的一大优势。另外,这也意味着你现在能够在Ant中使用任何javac支持的编译方式,这里有一个关于Apache Ant使用手册的javac page列表。
使用起来是容易的,因为你只需要在 元素中定义一个名字叫“compiler”,并且在value中有一个支持编译的编译器名字,示例如下:
<servlet>
<servlet-name>jsp</servlet-name>
<servlet-class>
org.apache.jasper.servlet.JspServlet
</servlet-class>
<init-param>
<param-name>logVerbosityLevel
</param-name>
<param-value>WARNING</param-value>
</init-param>
<init-param>
<param-name>compiler</param-name>
<param-value>jikes</param-value>
</init-param>
<load-on-startup>3</load-on-startup>
</servlet>
当然,给出的编译器必须已经安装在你的系统中,并且CLASSPATH可能需要设置,那处决于你选择的是何种编译器。
10、限制特定主机访问(Restricting Access to Specific Hosts)
有时,你可能想限制对Tomcat web应用的访问,比如,你希望只有你指定的主机或IP地址可以访问你的应用。这样一来,就只有那些指定的的客户端可以访问服务的内容了。为了实现这种效果,Tomcat提供了两个参数供你配置:RemoteHostValve 和RemoteAddrValve。
通过配置这两个参数,可以让你过滤来自请求的主机或IP地址,并允许或拒绝哪些主机/IP。与之类似的,在Apache的httpd文件里有对每个目录的允许/拒绝指定。例如你可以把Admin Web application设置成只允许本地访问,设置如下:
<Context path=
"/path/to/secret_files" ...>
<Valve className="org.apache.
catalina.valves.RemoteAddrValve"
allow="127.0.0.1" deny=""/>
</Context>
如果没有给出允许主机的指定,那么与拒绝主机匹配的主机就会被拒绝,除此之外的都是允许的。与之类似,如果没有给出拒绝主机的指定,那么与允许主机匹配的主机就会被允许,除此之外的都是拒绝的。
来自:http://www.uml.org.cn/j2ee/200602132.htm
/usr/sbin/groupadd oinstall
/usr/sbin/groupadd dba
/usr/sbin/useradd -g oinstall -G dba oracle
passwd oracle
mkdir /opt/oracle
mkdir /opt/oracle/product
mkdir /opt/oracle/product/10.1.0
chown -R oracle.oinstall /opt/oracle
mkdir /opt/oracle/oradata
chown -R oracle.oinstall /opt/oracle/oradata
mkdir /var/opt/oracle
chown oracle.dba /var/opt/oracle
chmod 755 /var/opt/oracle
vi /etc/sysctl.conf
kernel.shmall = 2097152
kernel.shmmax = 2147483648
kernel.shmmni = 4096
kernel.sem = 250 32000 100 128
fs.file-max = 65536
net.ipv4.ip_local_port_range = 1024 65000
vi /etc/security/limits.conf
* soft nproc 2047
* hard nproc 16384
* soft nofile 1024
* hard nofile 65536
vi /etc/profile
if [ $USER = "oracle" ]; then
if [ $SHELL = "/bin/ksh" ]; then
ulimit -p 16384
ulimit -n 65536
else
ulimit -u 16384 -n 65536
fi
fi
vi .bach_profile
export ORACLE_BASE=/opt/oracle
export ORACLE_HOME=/opt/oracle/product/10.1.0
export PATH=$ORACLE_HOME/bin:$ORACLE_HOME/Apache/Apache/bin:$PATH
export ORACLE_OWNER=oracle
export ORACLE_SID=URPDB
export ORACLE_TERM=vt100
export LD_ASSUME_KERNEL=2.4.1
export THREADS_FLAG=native
LD_LIBRARY_PATH=$ORACLE_HOME/lib:/lib:/usr/lib
LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/lib
export LD_LIBRARY_PATH
export PATH=$PATH:$ORACLE_HOME/bin
export NLS_LANG=AMERICAN_AMERICA.UTF8
export LANG=en_US
export ORA_NLS33=$ORACLE_HOME/ocommon/nls/admin/data
CLASSPATH=$ORACLE_HOME/JRE:$ORACLE_HOME/jlib:$ORACLE_HOME/rdbms/jlib
CLASSPATH=$CLASSPATH:$ORACLE_HOME/network/jlib
export CLASSPATH
确认并是修改生效
$ source .bash_profile
来自:http://www.cngr.cn/article/63/390/2006/2006071919228.shtml
1.硬件标准最低要求(指不警告的)
物理内存: 1G
交换空间: 1.5 GB或者2倍内存大小
/tmp 空间: 1 G
软件所需空间: 3 GB
数据库文件: 1.5 GB
2.linux参数标准最低要求(指不警告的)
#注释:#表示使用root用户操作,$表示使用oracle 用户进行操作
2.1 核心参数配置
#vi /etc/sysctl.conf
加入以下内容:
kernel.shmall = 2097152
kernel.shmmax = 2147483648
kernel.shmmni = 4096
kernel.sem = 250 32000 100 128
fs.file-max = 65536
net.ipv4.ip_local_port_range = 1024 65000
net.core.rmem_default = 262144
net.core.rmem_max = 262144
net.core.wmem_default = 262144
net.core.wmem_max = 262144
编辑完之后,保存,执行
# /sbin/sysctl -p
然后,应该检查一下上面的操作是否正确:
# /sbin/sysctl -a | grep sem
# /sbin/sysctl -a | grep shm
# /sbin/sysctl -a | grep file-max
# /sbin/sysctl -a | grep ip_local_port_range
2.2 为Oracle用户设定Shell的限制
# vi /etc/security/limits.conf
# 添加如下的行
* soft nproc 2047
* hard nproc 16384
* soft nofile 1024
* hard nofile 65536
添加如下的行到/etc/pam.d/login 文件:
session required /lib/security/pam_limits.so
编辑 /etc/profile 文件,添加如下部分:
if [ $USER = "oracle" ]; then
if [ $SHELL = "/bin/ksh" ]; then
ulimit -p 16384
ulimit -n 65536
else
ulimit -u 16384 -n 65536
fi
fi
2.3 此外,最好验证一下 gcc和glibc的版本(要求是gcc-3.2.3-2 或者更高)
#gcc -v
2.4 创建用户和相关的组
# /usr/sbin/groupadd oinstall
# /usr/sbin/groupadd dba
# /usr/sbin/useradd -g oinstall -G dba oracle
如果只是测试目的的话,不创建oinstall组也没什么. 不过还是规范一点比较好.如果oracle 用户和dba组等已经存在,作适当的调整即可.
2.5 检查并调整环境变量
登录为oracle用户
# su – oracle
$ vi .bash_profile
#添加如下内容,你的具体值应该不会和这个完全相同.
export ORACLE_BASE=/opt/oracle
export ORACLE_HOME=$ORACLE_BASE/product/10.2.0/db_1
export ORACLE_SID=orcl
export PATH=$PATH:$HOME/bin:$ORACLE_HOME/bin
export LD_LIBRARY_PATH=$ORACLE_HOME/lib:/usr/lib
export LC_CTYPE=zh_CN.UTF-8
然后执行
$ source .bash_profile
使环境变量生效/opt/oracle 等目录应该建立好并做合适的授权
#chown -R oracle /opt/oracle
3 开始安装10g
执行 /install/runInstaller
按照界面提示安装即可
最好按照高级安装
高级安装的好处:
a.字符设为utf-8(默认是iso-8859-1);
b.检查配置;
c.设定系统用户(默认是关闭的)
等等...
4 运行oracle10g
启动监听: lsnrctl start
关闭监听: lsnrctl stop
进入sql命令环境
sqlplus
/as sysdba
启动 startup
关闭 shutdown immediate
来自:http://fsz521job.itpub.net/post/5606/68404
一般以用户root身份安装。
先从SUN网站上下载一个jdk.比如:j2sdk1_4_2_05-linux-i586.bin,放到/usr/local 目录下,
[root@server /]# chmod a+x j2sdk1_4_2_05-linux.bin (添加执行权限)
[root@server /]# ./j2sdk1_4_2_05-linux.bin (执行j2sdk1_4_2_05-linux.bin)
执行完毕后会在本目录下生成 j2sdk1_4_2_05-linux.rpm
使用 rpm安装:
[root@server /]# rpm -iv j2sdk1_4_2_05-linux.rpm
安装完毕后设置环境变量:
把下面代码加入到/etc/profile最后:
JAVA_HOME=/usr/java/j2sdk1.4.2_05/
CLASSPATH=/usr/java/j2sdk1.4.2_05/jre/lib/rt.jar:.
PATH=$PATH:/usr/java/j2sdk1.4.2_05/bin
export JAVA_HOME CLASSPATH PATH
最后是测试
[root@server /]# source /etc/profile
[root@server /]# java -version
Tomcat 5.0.25
在http://www.apache.org下载得到jakart...t-5.0.25.tar.gz
#gunzip jakarta-tomcat-5.0.25.tar.gz
#tar xvf jakarta-tomcat-5.0.25.tar
#mv jakarta-tomcat-5.0.25 /usr/local/tomcat5.0.25
#cd /usr/local/tomcat5.0.25/bin
#./catalina.sh start
然后测试 http://localhost:8080 看到那个猫了吧,恭喜你tomcat安装ok
_____________________________________________________________________
安装apache2.0.50
估计用到的工具有:gcc,automake,autoconfig;libtools,m4 大家可以去下载rpm包安装就行了,别忘了写人环境变量噢 :-P
到http://www.apache.org下载后
gunzip httpd-2.0.50.tar.gz
tar xvf httpd-2.0.50.tar
cd httpd-2.0.50/bin
./configure -prefix=/usr/local/apache2 -enable-so (可改为你自己的目录;-enable-so用于加载connector,不可省略,你还可以加上你自己的其他模块)
make
make install
cd /usr/local/apache2/conf
vi httpd.conf
更改:servername 你的机器ip或域名
group nobody
listen yourip:80 (apache2以后把port已经改成了listen)
保存后,cd ../bin
./apachectl start
测试:http://localhost 看到apache的欢迎界面了吧,ok
_____________________________________________________________________________________
整合apache2与tomcat5.0.25
用连接器jakarta-tomcat-connectors-jk2-src-current.tar.gz(就是jk2),大家可到http://jakarta.apache.org/site/sourceindex.cgi下载
gunzip jakarta-tomcat-connectors-jk2-src-current.tar.gz
tar xvf jakarta-tomcat-connectors-jk2-src-current.tar
cd jakarta-tomcat-connectors-jk2-src-current/jk/native2
./configure --with-apxs2=/usr/local/apache2/bin/apxs (注意改为你的apache安装目录)
make
cd ../build/jk2/apache2
/usr/local/apache2/bin/apxs -n jk2 -i mod_jk2.so
另外,我在执行configure的时候提示有错误,好像是关于路径的,我就先启动了tomcat,执行通过。(也许是我没有设置关于tomcat目录的环境变量的原因)
make
make install
所有的文档都说如果发布不成功,那么要手工发布,我也是手工发布的:
cp PathOfJK2/build/jk2/apache2/mod_jk2.so PathOfApache/modules/
现在大家可以看到mod_jk2.so文件已经在你的apache/modules/ 中了
编辑apache/conf/httpd.conf
LoadModule jk2_module modules/mod_jk2.so 保存
在apache/conf/中新建文件workers2.properties,内容为下(注意其中目录要改为你的目录噢):
[shm]
file=/usr/local/apache2/logs/shm.file
size=1048576
# Example socket channel, override port and host.
[channel.socket:localhost:8009]
port=8009
host=127.0.0.1
# define the worker
[ajp13:localhost:8009]
channel=channel.socket:localhost:8009
# Uri mapping
[uri:/*]
worker=ajp13:localhost:8009
保存后,就快大功告成啦,呵呵
cd apache2/bin
./apachectl start
测试:http://localhost 大家是不是看到了那个猫猫的界面啊,恭喜恭喜,整合成功咯!!!(可别忘了启动tomcat)
来自:http://www.blogjava.net/borris/archive/2005/02/22/1413.html
在linux下安装web服务器经常要安装JDK和编辑一些配置文件,在这里我整理了一下,供大家参考:
一、安装JDK:
(1)从SUN下载jdk-1_5_0_04-linux-i586-rpm.bin,在/usr下新建java文件夹,将安装包放在/usr/java目录下,然后执行如下命令:
#chmod 777 jdk-1_5_0_04-linux-i586-rpm.bin
#./jdk-1_5_0_04-linux-i586-rpm.bin
#rpm -ivh jdk-1_5_0_04-linux-i586.rpm
选择“yes”,直到安装完毕;
(2)完成后安装在/usr/java/jdk1.5.0_04下,打开/etc/profile文件,在最后增加如下内容(如何编辑请参看下边vi编辑器的操作):
JAVA_HOME=/usr/java/jdk1.5.0_04
export JAVA_HOME
CLASSPATH=$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export CLASSPATH
PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin
export PATH
保存,OK,成功,可以开始linux下的java程序开发了。
linux下编写程序和编译和在windows下一样,这里就省略了。
二、vi编辑器的操作
打开文件:vi 文件名
从命令模式切换到输入模式:a
输入模式切换到命令模式:ESC
末行模式::
保存::w
保存退出::wq
不保存强制退出::q!
保存强制退出::wq!
光标移动到文件首:[[
光标移动到文件尾:]]
下翻页:ctrl+f
上翻页:ctrl+b
进入输入模式后就可正常修改了。
Globus Toolkit 4.0 是程序员相信代码质量已经足以满足企业需求的第一个版本。与 GT 以前的版本相比,GT4 包括很多 Web 服务和标准。网格先驱 Ian Foster 讨论了 Globus Toolkit 4.0 中的新增内容和重要内容。
Globus Toolkit 4.0 的发布
在 4 月 30 日,Globus Alliance 正式向开发社区发布了 4.0 版本。要下载这个版本,请参阅 参考资料。
IBM developerWorks 抓住了机会,就这个新发行版的重要性,对开源网格先驱 Ian Foster 进行了采访。
developerWorks:最新发布的 Globus Toolkit 4.0 被称为是距今为止“最能满足企业需求”的版本。您可以快速回顾一下 Globus Toolkit 的由来,并重点介绍一下 Globus Toolkit 4.0 中的新特性和功能吗?
Foster:在开始从事 Globus 方面的工作时,大约是在 10 年之前,我们的研究重点是试图确认一些允许通过科学上的合作和资源共享来解决一些复杂问题的机制和软件。这个工作的成果就是 Globus Toolkit。大约在 2001 年,随着 GT2 的发布,我们开始看到业界中许多用户对此很感兴趣,所以我们花费了大量的时间,吸引 Globus 软件的潜在商业用户的注意。
这些讨论对于我们来说是一剂强心针,使我们能更好地理解如何将科学界环境中的开发思想在 Web 服务框架中进行重塑,并且能够使用一种对业界非常有用的方法来提供这种重塑。在得到 IBM 的赞助之后,我们就可以真正开展工作了,随后推出的第一个产品是 2003 年 6 月发布的 GT3,这是第一个可以支持 Web 服务的 Globus Toolkit 版本,它利用了 OGSI(Open Grid Services Infrastructure),这是 WSRF(WS-Resource Framework)的前身。不幸的是,OSGI 不是一个业界普遍认可的标准,因此,坦白地说,GT3 软件并没有达到产品级别的质量。
从 GT3 发布以后的最近两年的时间里,我们已经在很多前端都取得了进步。一些重要规范已经在 Global Grid Forum(GGF)、OASIS 和 W3C 中得到了改进 —— 特别是 WSRF。我们非常努力地开发 GT4,在此过程中,我们已经实现了最新的 Web 服务标准,其中包括 WS-Security 和 WSRF。我们已经开发了一个代码集,现在它已经达到了产品级别的质量。我们还与早期采用此软件的组织进行紧密合作,例如位于 North Carolina 的 Microelectronics Center(MCNC),他是 Globus Consortium 的成员之一;还与很多研究网格的人一起合作,他们非常努力地从事最新版本的压力测试工作。我们觉得现在这个软件的质量已经足以满足企业的设置需求了。这就是为什么 IBM、Sun、HP、Intel 和其他一些著名的公司现在都对 GT4 非常感兴趣的原因。
GT4 中最引人注目的特性是:与 GT 以前的版本相比,GT4 包括很多 Web 服务和标准。GT4 基于 Web 服务实现了对各种资源类的标准接口,这一事实可以显著简化设计,从而增加这些标准被接受的可能。当然,通过开源社区开发人员和 Globus 社区中的用户的努力工作,与之前的版本相比,GT4 在测试质量、文档、性能和可靠性方面都得到了很大的提高。
您可以认为 GT4 是一组支持创建 SOA(Service Oriented Architectures) 的核心功能。这些核心功能包括支配置应计算和数据资源的执行和数据管理功能 —— 大量数据的移动和管理,以及支持资源发现和监视的服务。
developerWorks:哪些领域在推动 GT4 的开发?
Foster:在过去 3、4 年中,促进 Globus 发展的一大领域是对大量数据驱动问题的关注,例如,以 CERN 的下一代监测器阵列为代表,它每年将产生数千兆字节的数据。人们需要从大型社区中获得这些数据,并对分布式复制、处理和数据驱动的任务流进行管理。
几年前,我们最初是这样说的,“我们如何才能构建适当的协议和软件来管理大量数据在网络和机器之间的移动呢?”我们当时关注的是又大又昂贵的 SMP 机器,以及同样大型并且昂贵的存储解决方案,这也正是网格环境要解决的问题。
因此我们怀疑是否可以使用集群,利用它的并行处理能力作为解决大量数据传输的方法。这个概念带来了一些突破性进展 —— 例如,使用 Grid FTP 作为一种条带化数据移动的基础设施。今年秋天,通过使用我们构建的新型服务器,我们展示了如何跨国家在 IBM Linux® 集群之间使用 General Parallel File System(GPFS)实现 20 GB/s 的不间断的端到端数据传输。
我们还开始开发对数据传输进行管理的各种功能。我们不用担心 A 点到 B 点之间可靠性的问题,而是相信网格会要求服务允许我们“开火之后就忘记”—— 让服务来负责“重试”、“备份”和“故障迁移”的工作。我们还开发了数据复制的技术 —— 分析如何对分布在社区中的数据副本进行跟踪和管理。有一个社区正在使用 Globus 软件将 1 TB 的数据复制到全球的 6 个站点上,平均故障时间是 1 个月。
执行管理是 GT4 中的另一大特性,它的架构重新进行了设计,这让我们踏上了一条更好的途径。因此我们正在查看当某个组织有工作负载时,它是否希望在特殊的基础设施上运行,他们可以将必需的组件放在基础设施的适当位置上,以便运行这些组件。在 GT4 中,这个过程依然在进行之中 —— 但是我们最近已经开展了大量的工作,允许进行更多操作执行的管理 —— 可以根据需要为任务负载管理锁定整个堆栈,从 OS 到上层(通过虚拟机)。
developerWorks:在网格/虚拟化领域中,最新的一些产品的使用情况如何?它们与网格(尤其是 Globus 所提供的功能)的关系如何?
Foster:目前您可以看到的是很多人正在使用不同的方法来实现网格。通常,我们会看到一些允许我们对企业中或跨企业的资源进行聚合的软件,但是采用的一般都不是可以互操作的方式。因此这些解决方案大多是私有的,而且不必基于标准来开发。例如,如果您在自己的解决方案中使用 Platform 的 LSF —— 这是一个很好的产品,很好用 —— 但是之后又使用了另外一个使用不同工作负载管理器的应用程序,那么这两个应用程序不能对相同的底层资源进行共享。Globus 的目标是使您能够将网格基础设施部署到所有资源上,让高级的软件包来使用相同的公共基础设施组件。
采用这种公共基础设施所需要的标准已经在标准社区中有大约 18 个月的时间了。现在可以采用一个开源的实现,人们可以开始构建自己的基于标准的基础设施,其他应用程序和系统可以在此基础上进行构建。
developerWorks:因此,您是说诸如 Web 服务接口之类的开放标准对于网格的采用来说非常关键?
Foster:对于网格社区,我们的观点和目标是:在其中建立一些标准的接口,使您可以以标准方式管理不同类型的资源。Globus Alliance 的目标是为这些接口提供一个高质量的开源实现。我们相信开放标准非常重要,开源软件可以成为这些开放标准的一个强有力的驱动工具。毕竟,我们已经具有 Internet 和 Web 方面的经验:通过 BSD UNIX 来提供 TCP/IP 通信,通过 Apache 提供 HTTP 服务。
有关接口的一个优点是,它们可以启用多级的创新。可以通过创建不同的高级服务,在接口之上进行创新;但是也可以在接口之下进行创新,例如在网格环境中,通过创建更好的操作系统、文件系统和网络管理系统,所有这些都可以通过 Web 服务接口进行管理。这样,[Globus Toolkit] 本身就成为一种可以启用的技术。它不是一个固定不变的解决方案;而是一个平台和一组工具,您可以在此基础上可以构建其他工具和应用程序。
developerWorks:安全性方面的情况如何呢?
Foster:目前我们为安全性提供的是一组基于标准的授权和身份验证功能的一个很好的开源实现。我们实现了 WS-Security 及其相关规范,这使得用户在应用程序中只需进行一次身份验证,就可以访问整个企业或其他企业中的计算资源和数据资源,而不需要再进行任何身份验证。我们目前尚未提供(将来会解决)的功能是整合企业的单点登录解决方案。我希望那些关注 Globus 在企业中的应用情况的组织(例如 Globus Consortium 和 Univa Corp.)花费一些精力来解决这个问题。
developerWorks:就 GT4 的采用情况来说,您认为什么是它取得成功的原因?
Foster:目前的一个趋势是业界人士对 Web 服务的使用正在不断增加。因此,Globus Toolkit 的出现,以及它为各种资源类别实现了基于 Web 服务的接口的事实,引起了人们的共鸣。当然,Web 服务的使用显著简化了设计和实现,这也对它的采用有所促进。
我认为采用 GT4 的一条重要途径是通过 ISV。目前您看到的主要是一些拥有相当多 IT 基础设施的公司(例如金融服务和制药公司)正在部署自己的网格项目,这些部署工作不但完全在本公司内部进行的,而且通常是与 IBM 和 HP 之类的公司合作进行的。对于很多(尤其是小型的)企业来说,通过将网格技术集成在自己的产品中的 ISV 来部署网格可能会更好一些。这一点在 GlobusWORLD 上得到了很好的展示,在 GlobusWORLD 中,SAP 显示了一些应用程序的实验原型,这些原型已经被修改,以便使用 Globus 软件为这些应用程序动态配置资源。我认为我们将从这个例子中看到更多的东西。
GT4 是 Globus 进化的一个延续。其重要之处在于,这是我们第一次觉得可以告诉其他组织 —— 代码质量足以满足企业需求了。
Globus Toolkit 4.0 的新特性
GT4 遵守最新的 Web Services Interoperability Organization(WS-I) Web 服务标准,在不同环境之间提供了最大的互操作性。
GT4 包含对一些重要授权标准的初步支持,其中包括 Security Markup Language(SAML)和 eXtensible Access Control Markup Language(XACML)。
GT4 实现了 WSRF 和 WS-Notification 规范。
GT4 具有复杂的授权和安全功能。Globus 在网格安全性方面一直非常努力,从安全性的观点来看,GT4 已经是“满足企业需求的”了。
GT4 提供了高级的执行和数据管理功能。
作者简介
Travis Van 是硅谷的一位专注于新技术的技术 PR 宣传者。
除了自由撰稿和提供咨询服务之外,Dave Rosenberg 还负责 LinuxWorld 的会议程序。他所梦想的技术是在基于 Linux 的蜂窝电话上运行网格应用程序。
http://www-128.ibm.com/developerworks/cn/grid/gr-gt4/
主题:网格
关于题目难度的解释:
★ 了解概念,基础题目
★★ 理解概念,有所扩展
★★★ 引用实例,开放性问题(答案可能不唯一)
针对难度的题目数目统计:
★ 17题
★★ 22题
★★★ 11题
题目
1,请解释五层沙漏结构的概念。★
答:
五层沙漏结构是一种早期的抽象层次结构,以“协议”为中心,强调协议在网格的资源共享和互操作中的地位。通过协议实现一种机制,使得虚拟组织的用户与资源之间可以进行资源使用的协商、建立共享关系,并且可以进一步管理和开发新的共享关系。这一标准化的开放结构对网格的扩展性、互操作性、一致性以及代码共享都很有好处。下图为五层沙漏结构的典型结构图。
五层结构之所以形如沙漏,是由各部分协议数量的分布不均匀引起的。考虑到核心的移植、升级的方便性,核心部分的协议数量相对比较少 (例如Internet上的TCP和HTTP),对于其最核心的部分,要实现上层协议(沙漏的顶层)向核心协议的映射,同时实现核心协议向下层协议(沙漏的底层)的映射。按照定义,核心协议的数量不能太多,这样核心协议就成了一个协议层次结构的瓶颈。在五层结构中,资源层和连接层共同组成这一核心的瓶颈部分,它促进了单独的资源共享。
2,请解释OGSA的概念。★
答:
开放网格服务结构OGSA(Open Grid Services Architecture)是Global Grid Forum 4的重要标准建议,是继五层沙漏结构之后最重要、也是目前最新的一种网格体系结构,被成为下一代的网格结构。其中心思想是:以服务为中心的模型;同一的Web Service框架;突破科技应用领域。建造OGSA的两大支撑技术是网格技术(如Globus软件包)和Web Service。五层模型与OGSA都相当重视互操作性,但OGSA更强调服务的观点,将互操作性问题转化为定义服务的接口和识别激活特定接口的协议。
3,五层沙漏结构自下到上分别为()。★
(A)构造层、资源层、连接层、汇聚层、应用层
(B)构造层、连接层、资源层、汇聚层、应用层
(C)构造层、连接层、汇聚层、资源层、应用层
(D)资源层、连接层、构造层、汇聚层、应用层
(E)应用层、连接层、汇聚层、构造层、资源层
答:
选B。
4,下面对五层沙漏结构中各层作用描述错误的是()。★
(A)构造层:定义了一些对单个的资源共享操作协议
(B)连通层:定义了Grid网络事务处理的通信和验证协议,基于Internet协议
(C)资源层:提供一套对局部资源控制的工具和接口
(D)聚合层:提供多个资源协同工作
(E)应用层:提供Grid的系统开发和应用开发工具、环境
答:
选AC。
5,Ian Foster提出的判断是否网格的三个标准是什么?★
答:
网格必须同时满足三个条件:
(1)在非集中控制的环境中协同使用资源;
(2)使用标准的、开放的和通用的协议和接口
(3)提供非平凡的服务。
(参考2002 年7 月Ian Foster的《什么是网格?判断是否网格的三个标准》)
6,下面列出的网格服务接口中,()是已有服务接口,其中()接口是必须的。★
(A)GridService
(B)Registry
(C)Factory
(D)WebService
(E)HandleMap
答:
选(ABCE),选(A)。
7,网格核心服务技术包括哪些?★
答:
(1) 高性能调度技术;
(2) 高吞吐率资源管理技术;
(3) 性能数据收集、分析和可视化技术;
(4) 安全技术。
8,网格应用主要分为()这几个主要部分。★
(A)分布式超级计算
(B)分布式仪器系统
(C)分布式存储系统
(D)远程沉浸
(E)数据密集型计算
答:
选ABDE。
9,Globus项目的实现目标是什么?Globus系统主要有哪些部分组成?★
答:
Globus项目发起于20世纪90年代中期,最初的目的是希望把美国境内的各个高性能计算中心通过高性能网络连接起来,方便美国的大学和研究机构使用,提高高性能计算机的使用效率。目前,Globus项目把在商业计算领域中的Web Service技术融和在一起,希望不仅仅局限于科学计算领域,还能够对各种商业应用进行广泛的、基础性的网络环境支持,实现更方便的信息共享和互操作,从而对商业模式、人员的工作方式和生活方式产生深远的影响。Globus目前的主要工作是建立支持网格计算的通用协议,开发支持网格计算的服务,实现支持网格计算环境的软件开发工具。
Globus系统的主要组成部分有:
(1) 网格安全基础设施(GSI),负责在广域网络下的安全认证和加密通信,提供单点登录功能、远地身份鉴别功能、数据传输加密功能等,提供了基于GSI协议的接口,是保证网格计算安全性的核心部分。
(2) Globus资源分配管理(GRAM),负责远程应用的资源请求处理、远程任务调度处理、远程任务管理等工作,负责对资源描述语言信息的解析和处理工作,是网格计算环境中的任务执行中心。
(3) 元计算目录服务(MDS),主要完成对网格计算环境中信息的发现、注册、查询、修改等工作,提供对网格计算环境的一个真实、实时的动态反应,是网格计算环境中的信息服务中心。
(4) 全局二级存储服务(GASS),简化在Globus环境中应用程序对远程文件I/O的操作,使得使用UNIX和标准C语言I/O库的应用程序基本不用改动就可以在Globus环境中中兴,是一个支持网格计算环境远程I/O访问的中间件。
(5) 网格FTP服务,是一个高性能、安全、可靠的数据传输协议,并对高带宽的广域网络环境进行了优化,是网格计算环境中的数据传输工具。
(6) Globus复制管理,将部分相关数据只能的放置在距离科学应用程序最近的位置,使得科学应用程序可以快速的对数据进行访问。
10,什么是网格,网格的目标?★
答:
网格是从电力网格中借鉴过来的一个概念,原本是希望计算力和计算资源能够象电力一样,“打开电源开关就可以使用”,不用去关心是谁、如何提供的这些服务。网格的目标是抽象并量化计算资源,随时随地能够通过网络“定额”完成“定量”的计算相关的工作。
11,网格的本质特征是什么?★
答:
网格的本质特征是:分布与资源共享:分布是网格最本源的特征,网格是通过集中分散的资源来完成计算的,资源的共享是一种集中资源的手段高度抽象:把计算力和所有的计算资源高度抽象成为用户可见的“电源接线板”,其它的东西对用户透明。自相似:在大尺度上和小尺度上有相同或者类似的规律动态性和多样性:和电力网格一样,用户的需求是变化的,所以动态性是网格需要考虑的一个基本问题自治性与管理的多重性:网格节点内部的自治和外部的受控整合是网格的一个特征,分层的资源需要层次化的管理,而分层来自于网格节点的归属问题和性能方面的考虑。
12,网格在应用领域体现出来的优势主要是 、 。★
答:
高性能、低成本。
13,网格的主要有那些体系结构?★
答:
Foster等在早些时候提出的五层沙漏结构,从底层开始分别为构造层、连接层、资源层、汇聚层和应用层,这是早期的网格体系结构,后来OGSA的出现使得这种体系结构已经淡化了。美国Globus项目提出的网格体系结构模型采用本地服务层、核心服务层、高层服务与工具层、应用层四层结构。在此基础上,美国的Argonne国家实验室、芝加哥大学、南加州大学和IBM公司共同提出了开放式网格服务体系结构(OGSA)。OGSA采用纤维层、联络层、资源层、协作层、应用层五层结构。
14,网格(Grid)的起源是什么?★
答:
“网格”(Grid)一词来源于人们熟悉的电力网(Power Grid)。目前对计算力的需求正在持续不断地增长。高速网络、功能和性能更加强大的大规模计算系统、高性能存储系统以及高级数据分析软件的应用为解决商业领域和科学领域的计算问题带来了希望。但是利用这些新的能力意味着应付不断增加的工作负荷要求所带来的空前挑战。当一个组织机构在努力保持竞争力的时候他们面临许多前所未有的挑战:减少计算费用、增加计算吞吐量、加快对市场的响应、改进生产服务质量和产品创新等都是非常重要的。一个组织机构在硬件方面的投资需要谨慎地进行权衡,并且必须找到利用可得资源完成更多工作的方法。尽管对计算力的需求是非常大的,但是许多现有的系统都没有得到充分利用。其中一些单个服务器也许满负荷工作,但是大多数系统却不是满负荷工作的,使许多计算周期没有使用,而实际上这些计算周期可以用于满足不断增长的计算资源需求。网格计算使组织机构可以更加有效地和灵活地用他们的分布式计算资源,从现有的系统中获取更加有用的计算力,帮助组织机构获得竞争优势。
15,Globus项目的网格安全基础设施GSI重要集中在网络的 和 ,并强调与现有分布式安全技术的融和。GSI基于 加密体系,采用 认证和 通信协议,并对它们进行了一定的扩展,使得GSI可以支持单点登录。★
答:
传输层、应用层、公钥、X.509、SSL。
16,下面选项中,哪些是常用网格应用程序开发工具()。★
(A)CoG Kits
(B)GT3
(C)Java CoG Kit
(D)MPICH-G2
(E)CORBA
答:
选ABCD。
17,Globus的数据管理主要组成部分包括哪些内容?★
答:
(1) 全局二级存储服务GASS,通过GASS可以简化在Globus环境中应用程序对远程文件I/O的操作,使得使用UNIX和标准C语言I/O库的应用程序基本上不用改动就可以在Globus环境中运行;
(2) 网格FTP服务,GridFTP支持第三方传输、断点续传、并行传输、与GSI结合的安全认证、缓存等特性,是网格计算环境中的数据传输工具;
(3) Globus复制管理,复制管理是一大类科学应用程序中需要考虑的重要问题,由于存在对大型远程文件的访问,Globus复制目录通过把部分相关数据智能的放置在离科学应用程序最近的位置,使得科学应用程序可以快速的对数据进行访问。
18,首款用于网格计算的数据库应用服务器已经正式面市,这款产品是()。★★
(A)Microsoft SQL 2004
(B)Oracle 10g
(C)GridBase
(D)DB2 for Grid
(E)Sybase
19,网格的五个主要应用领域:分布式超级计算、分布式仪器系统、数据密集型计算、远程沉浸和信息集成。实际上,这五个应用在现在的万维网上也能实现,那么网格在这些应用领域的优势体现在什么地方?★★
答:
网格的优势体现在按需计算各取所愿上。按需计算的网格代表了量子化基本单元、格式化资源共享、形式化公共协议和公理化组合创新的思想。网格是可视、可谱、可拓和可控的策略性创新工具,能从体系结构上推动智能计算机和网络的发展。
20,网格体系结构的基本要求包括哪些内容?★★
答:
(1)为应用提供单一分布资源全局视图和聚集各种分布的自治资源成为一个系统,不能破坏现有系统,不导致应用程序的重新编写;
(2)不同组织之间的资源共享互操作是必不可少的,可以对资源直接访问而不单单是文件共享和交换,具体体现在各种资源构件之间和机制之间;
(3)有一套标准的协议是至关重要的,在遵守标准协议的前提下,才能使允许跨节点的协同工作、允许基础下部组织共享成为可能;没有标准的协议,互操作和共享很难实现,重复开发和安装不可避免;
(4)从Grid实现者的角度来看,网格体系结构是一个层次型中间件服务集合,按照现代软件系统的设计原则,以服务的方式为应用工具和应用的开发提供支持,而服务的实现必须能够自由地使用各个层次上的功能和服务进行构造。
21,下图是一个数据挖掘的例子,它是基于 结构实现的,认证是在图示中的第 步完成的。★★
答:
OGSA结构,2。
22,请解释网格计算和Web Service的关系。★★
答:
网格计算与Web Service之间存在着密切的关系:Web Service的核心是在大的异构网络上将各种应用连接起来,借助于Web标准UDDI、WSDL和XML/SOAP等将Internet从一个通信网络进一步发展到一个应用平台。当越来越多的Web Service实现后,应用的各种特征将会随之改变。一些应用就可以根据需要或者是根据可以得到的功能,从可得的服务中来动态构造。
OGSA吸纳了许多Web服务标准,如Web服务描述语言(WSDL)、简单对象访问协议(SOAP)、轻目录访问协议(LDAP)、Web服务探测(WS-Inspection)等。这些标准用于定位、调度计算资源并保证它们的安全。OGSA采用Web服务框架的优点是:一方面,通过注册和发现接口定义和终端实现描述以及动态产生特定接口绑定的代理,在异构环境中能够支持服务的动态发现和合成。另一方面,由于Web服务机制在商业应用领域广泛采用,OGSA采用Web服务框架使人们能够利用许多现有的开发工具和扩展服务,如产生语言绑定的WSDL处理器。
有些人认为Web Service和Grid Service都需要发现服务,进而将服务绑定,以集成到应用之中,于是把Web Service和Grid Service当成一回事,这是错误的。Web service强调永久服务的发现和调用,Web service的服务是无状态的,但在网格环境中,必须也要支持瞬时服务实例, 动态地创建和取消。可以说,Grid Service只是用了Web Service的一层外皮。
23,下图是五层沙漏结构的系统还是OGSA的系统,并说出你的理由。★★
答:
OSGA结构。因为从图中可以看出,此系统实现了必须的Grid Service接口,并通过Miner Factory、DataBase Factory等接口provider的协作可以支持创建临西服务。
24,OGSA有四个主要层次:物理与逻辑资源、定义网格服务的Web服务与OGSI扩展、基于OGSA架构的服务,以及网格应用程序。你怎样理解这句话?★★
答:
不完全正确。这句话描述的应该是服务网格,但对其他网格不一定合适,例如计算网格。
25,网格与分布式系统有何区别?★★
答:
网格计算是一种新的高性能的分布式计算方法。网格计算作为新一代的分布式计算方法,与传统分布式计算的主要区别在于在没有集中控制机制的情况下,通过对计算资源进行大规模共享,满足应用对高性能计算要求,并且这种对计算资源进行大规模共享是动态的、柔性的、安全的和协作式的。
26,调度的目的在于使运行的大量应用在共享网格各种资源的同时获得最大的性能。网格调度相对传统高性能计算中的调度策略和技术不同之处在什么地方?★★
答:
相对于传统的高性能计算中的调度技术和策略,网格调度更加复杂。这是因为任何一个网格调度器都无法对所有的网格资源进行管理,而只能使针对一定范围内的网格资源。另外,网格资源还是动态变化的。由于其他应用引起的资源竞争对性能影响很大,而且会经常出现,网格资源的复杂多样,不同类型的资源会展示出不同的性能特征,而且相同类型的资源由于共享等原因所展示的性能也是随时间变化的。因此网格的调度,需要建立随时间变化的性能预测模型,充分利用网格的动态信息来表示网格性能的波动,而且网格的调度必须考虑到多种多样的环境和条件,这是由网格异构性和多样性等特征所决定的。在网格调度中,还存在着移植性、扩展性、效率、可重复性以及网格调度和本地调度结合等问题,这些都是网格技术需要解决的问题。
27, 阐述一下你对集群和网格之间相同和不同之处的理解。★★
答:
他们都是分布式系统,目标很多相近的地方,共享和协同,所以技术上也有相似的地方。但是条件和环境不同,集群一般是同构(也有异构的),地域上十分近,要想性能越强就需要越近。一般是在一个屋子里面,至少也是在一个局域网范围内。网格的范围就广的多了。无论从地域的广度,还是系统组成的复杂性。网格的组成可以很复杂,包括专用存储器,各种仪器设备等,当然其中也包括集群,各种类型的硬件,各种不同的系统软件,还有功能复杂的中间件。从分布式系统来说,最集中的方式就是集群,最分散的方式就是网格。属于分布式的两端。
28,请问网格如何分类,并分别进行解释。★★
答:
(1)计算网格:强调计算力获取、管理等的网格;
(2)数据网格:强调数据存储、管理、传输、处理的网格;
(3)访问网格:强调信息存储、管理、传输、处理的网格;
(4)信息网格:强调数据存储的网格;
(5)服务网格:强调应用服务集成的网格;
(6)知识网格:强调知识存储、管理、传输、处理的网格;
(7)语义网格:强调语义解析的网格,实现语义互操作;
(8)访问网格:提供单一访问通道获取网格资源的网格;
(9)网格门户:提供网格单一访问通道。
29,介绍一些国外的主要网格项目的状况?★★
答:
美国科学格网项目的目标是建立基于格网中间件Gridware)和系统工具的高级分布式计算基础设施(ADCI)使能源部科学计算体系的可伸缩性满足能源部内部科学研究任务要求。 远程分布式计算与通信项目的目标是创建一个用于访问美国能源部三个武器实验室的具有可操作性的格网,以支持国防计划中远程计算和分布式计算这两个关键战略领域复杂的分析、设计、制造、认证功能。
地球系统格网(Earth System Grid II,ESG)项目由阿贡国家实验室(Argonne National Laboratory)等五个国家实验室的科学家联合承担。主要目标是解决从全球地球系统模型分析和发现知识所面临的巨大挑战,为下一代气候研究提供一个无缝的强大的虚拟协同环境。
国家地震工程仿真格网的目标使地震研究人员能够进行各种地震工程实验数据分析的大规模计算任务。
此外,目前美国正在进行的格网计算研发项目还包括Globus、美国航空航天局(NASA)的信息动力格网(Information Power Grid,IPG)、美国国家技术格网(National Technology Grid)、虚拟实验室项目(Virtual Laboratory Project)、天体物理仿真合作实验室(Astrophysics Simulation Collaboratory,ASC)、国际虚拟数据格网实验室(International Virtual Data Grid Laboratory,iVDGL)等。
Globus目标构建一个格网软件基础设施。研究内容包括资源管理、数据访问、应用开发、格网安全等。目前全球许多用户利用Globus工具包创建格网和开发格网应用。
信息动力格网的目标是为国家航空航天局科学研究任务提供持续、可靠的计算动力源。
美国国家技术格网项目的目标是创建一个无缝集成的协同计算环境原型系统。
虚拟实验室项目致力于研究、设计、开发能够帮助解决数据密集的、涉及大规模计算的分子生物学问题的格网技术。
天体物理仿真合作实验室项目的主要目标利用Cactus和Globus格网计算的研究成果为高级可视化交互和元计算提供大规模并行计算能力,实现在相对论天体物理学领域的大规模仿真。
国际虚拟数据格网实验室项目由欧盟的数据格网(DataGrid)、美国的格网物理网络(Grid Physics Network)和粒子物理数据格网(Particle Physics Data Grid)协作创建。
30,什么是P2P计算,与网格有什么关系?★★
答:
对等(P2P)计算是在Internet上实施分布式计算的新模式。在这种模式下,服务器与客户端的界限消失了,网络上的所有节点都可以“平等”共享其他节点的计算资源。IBM为对等下了如下定义:对等系统由若干互联协作的计算机构成,且至少具有如下特征之一:系统依存于边缘化(非中央式服务器)设备的主动协作,每个成员直接从其他成员而不是从服务器的参与中受益;系统中成员同时扮演服务器与客户机的角色;系统应用的用户能够意识到彼此的存在,构成一个虚拟或实际的群体。网格采用P2P计算体系结构。
31,何为元计算,与网格是什么关系?★★
答:
元计算技术是将一组通过广域网连接起来的性质不同的计算资源集合起来,作为一个单独的计算环境向用户提供计算服务。元计算系统的目标是使用户能够共享其中的计算资源并以合作的方式进行计算。元计算前端主要解决最终用户通过统一的界面来使用广域网上各类计算资源的问题;元计算内核主要解决计算任务在广域网中各种超级计算机上协作完成的问题,提供一个完整的程序开发和运行环境。当用户提出计算请求时,计算问题的执行代码在系统内部的计算资源上进行合理的调度和管理,最后得出运行结果并通过元计算前端反馈给最终用户。一个良好的元计算系统主要由三个部分组成:一是尽量简单而又可靠的使用界面;二是资源管理系统;三是良好的编程模型和高效可靠的运行时环境。其中资源管理系统处于核心地位,它负责整个系统中各个资源的描述、变动、分配与保护,与运行时系统密切合作,保证整个系统的正常运行。资源管理系统需要为不同级别的系统管理员提供强有力的工具或界面来对这些资源进行控制和保护。元计算是网格计算的初级形态。
32,网格跟.net、corba,、jini、java的rmi、J2EE都是什么关系?★★
答:
网格融合了.net、corba、jini和java的rmi、J2EE思想,并从软件集成扩展到CPU、存储设备、仪器等硬件的集成。
33,OGSA与OGSI有什么关系★★
答:
OGSI规定了向网格发送处理请求时所使用的接口,相当于Web服务中的WSDL,在网格计算相关标准中处于核心地位。开放式网格服务体系结构采用纤维层、联络层、资源层、协作层、应用层五层结构,网格是通过调用服务来构造应用的,这就涉及接口问题。
OGSA是一个抽象的东西,里面没有具体的内容,OGSA的推出要比OGSI早,OGSI是对OGSA的主要方面具体化、规范化。Globus是基于OGSI标准的一个实现。WSRF是和OGSI同一个层次的东西,是吸收了Web Service最新成果后,对OGSI的重构和发展。
34,网格与中间件是什么关系?★★
答:
网格中间件(Gridware)就是一种在网格中应用的中间件;现在的Globus Toolkit就是一种网格中间件,连接异质的主机节点构成Globus网格。
35,网格跟IBM提出的自主计算有什么关系?★★
答:
“自主计算”的设想是将日益复杂的IT系统管理后台化、自动化和智能化,通过强大的中间件将异构网络改造成真正意义上的和谐自主的数字神经系统。网格本身就是一种自主计算。
36,国内的网格有那些项目,每个项目的目标如何,目前进展如何?★★
答:
(1) ACI工程的目标是把分布在不同地理位置的高性能计算机、贵重仪器、数据库等用高速网络连接在一起构成一台虚拟计算机,用户通过ACI共享资源、共同讨论、合作开展科研项目。
(2) 织女星计划,Vega计划以元数据、构件框架、智能体、格网公共信息协议和网格计算协议为主要研究突破点。
(3) 上海网格,海市政府将与IBM公司合作建立“城市网格”,整合全市范围内的政府信息化资源,提高政府的公共服务能力和效率。
37,下图是网格环境下安全认证证书的获取过程示意图,请在图中圆圈中标注证书获取过程的步骤。★★
答:
38,下图是Globus环境中的安全鉴别过程示意图,并用数字标注了过程各步的次序,请为各步加上说明。★★
答:
39,网格的安全问题的研究主要包括哪些内容?★★
答:
(1)集成方案: 着重解决如何充分利用现有的服务以及接口并对其进行抽象为可扩展的体系;
(2)协同工作能力解决方案:着重解决如何在有着不同安全机制和策略的虚拟组织中的服务的互相调用问题;
(3)信任策略方案:着重解决如何在动态网格环境下定义、管理、执行信任策略。
40,下图GSI认证过程的示意图。图表示了主机B认证主机A的过程,但是在示意图中圆圈里面标注的认证过程步骤次序被人涂掉了,请填入正确的步骤次序。★★★
答:
41,你认为GSI授权还存在有哪些不足?★★★
答:
(1) GSI要求每一个访问资源的全局用户都需要在本地资源服务器上拥有一个自己的账号,每一个资源服务器都需要维护一个庞大笨拙的全局/本地映射表,这种授权机制难以扩展到拥有大量资源和大量用户的大规模环境中。
(2) GSI缺乏基于全局策略的具有良好扩展性的访问控制机制。
(3) 针对目前大规模网格环境中授权机制存在的问题,我们提出了虚拟组织中的社区授权策略。
42,说说你对建造网格的建议。★★★
答:
(1) 争取国家、政府的支持。
(2) 争取大公司的支持。
(3) 创造商机,利用市场与经济杠杆。
(4) 从局部到整体。
(5) 同一的协议、规范。
43,有人提出网格作为一种计算能力,是否能提出一个计量单位,作为网格使用量的度量。就像电力网一样,用户拥有独立的电表,根据电力的使用量付费。说说你对这种观点的看法。 ★★★
答:
(答案A)应该付费。服务好的网格可以收取适当的费用。如:对计算网格可以按照使用的计算能力付费,对存储网格可以按照存储大小和服务时间收取费用。
(答案B)不应该付费。网格号称是下一代互联网,可以参考当前互联网来判断网格是否可以收费使用。互联网上,人们提供资源和服务大多是资源的,其他人使用这些资源和服务是不用付费的,所以网格也不应该付费。
44,网格n年以后会不会取代现在的internet而成为网络的最基础设施?说说你的看法。★★★
答:
一种答案:不会,就像internet没有取代PC一样。他们处于不同的层次,解决不同的问题。网格是以Web为基础的,必然是建立在internet上。
45,网格被成为下一代互联网。请你参考网格技术分析一下,网格时代下作为网格设备的计算机相对于现在的计算机应该在那些方面进行提高?★★★
答:
1, 安全性:与对网络环境相比,网格环境中,计算机更加地于网格,对于以网格设备的面貌出现的单个计算机,具有更高的安全性能要求。
2,个体与集体关系:每一个计算机(网格设备)都是网格集体中的成员,对于网格应用而言,网格是一个整体,不管任务(或应用)从什么设备提交,都是利用整个网格的资源来执行的。即一个在大型计算机上运行的任务可以通过甚至手机来运行。在网格中,个体的特色将被最大限度地淹没在网格社会中。 即我们可以在PC计算机上运行某个应用,如Word,也可以在手机上运行同一个应用,甚至可以把在PC机上运行一半的Word,移植到手机上继续运行下去,而网格应用本身并没有察觉这个变化。
因此,为了适应网格环境,现在的计算机需要提高安全性,并方便于进行分布式计算,就需要从硬件、操作系统、应用程序体系结构、通信等方面进行提高。
46,某单位需要上一个系统,需求是:1,绝大多数需要集成的系统是数据库系统;2,对信息的变化要求能够有实时响应的能力;3,机构的组织要求分级。请考虑该单位是否适合使用网格平台来解决这个问题?★★★
答:
网格对数据库的支持现阶段还不够好,针对具体的应用开发grid service好像不是很合适,完全不具备普遍性;网格大多还是属于一个被动式的系统,即要求用户主动去申请服务,是一种拖的方式,而该单位的需求更多的需要是一种拉的方式;而网格中用的模型更多的是一种对等的模型,而不是分级模型。
该单位的问题应该有现成商业软件能够完成,不过价格应该比较昂贵。没有现成的网格平台能够简单的把该单位的系统集成进去并满足要求,想做也要自己做开发,考虑到开发成本、维护等问题,代价势必更高,所以使用网格平台是不合适的。
47,如果把网格比作一台虚拟的超级计算机,网格计算类似CPU的功能,数据网格类似磁盘的功能,那么数据线、主板、显卡这些又是什么呢?★★★
答:
这里存在一个误区:我们不能在把网格当成网格计算机的时候,又把网格看成中间件的形式。当把网格看成中间件的时候,网格就不能是一个计算机,因为原有计算模型没有改变。
网格计算机是在“分布式”系统之上构筑的虚拟计算机,因此其计算模型要有根本改变,即不是冯络伊曼机构,也不应该是图灵机模型。
如果一定要给网格环境下的“数据线、主板、显卡”等概念匹配到具体的网格设备上,可以这样理解:“数据线、主板”则是通信网络和服务注册站,“显卡、显示器”则是PC终端。不过这样的匹配就有些牵强了。
48,网格是一种新技术,任何新技术或多或少都会带有泡沫的成分?你是否赞成?网格技术是否也带有泡沫的色彩?从总体上看,网格技术目前的发展,是处在一个什么状况?网格离实际应用,离商业应用还有多远?网格需要经历几个阶段,才能走向真正的商用?网格想要得到广泛的商业应用,是否会遇到一些阻碍?★★★
答:
(1)不赞成,技术本身没有泡沫,泡沫是商业炒作产生的。现在已经开始商业炒作了。
(2)技术上出于研究开发阶段,商业上出于炒作期,即处于预热期。
(3)2到3年时间。
(4)原型应用系统开发、网格标准化(规范、协议)、成熟的商业模式。
(5)是的,例如安全问题、计费问题等。
49,国际上所设想的计算网格的普遍形式是任务可以跨结点进行分布运算,但是目前阶段的网络条件和研究水平尚不能有效地支持这一设想,于是有人提出可以用网格构成“计算池”。“网格计算池”有以下特点:(1)计算资源共享;(2)不把一个任务分解成N个子任务,而只是安排在其中一台合适的机器上运行;(3)通过Web提交任务和查看结果。请你对“网格计算池”的这三个特点给出你的评价。★★★
答:
(1)计算资源共享可以提高资源的利用率和服务质量,但需要实验证明;
(2)现在只有极少的任务是任何单台高性能计算机都无法处理的。这条限定可以避免分解任务的复杂性(同时降低用户使用高性能计算的门槛),而且更重要的是,避免任务子模块之间频繁通信造成的性能下降。
(3)通过Web提交任务和查看结果。这可以大大方便用户访问高性能计算机:用户不必出差,不必到实验室排队,在家中就可以24小时提交和运行任务。而且一般来说,任务提交和返回结果的通信量相比计算时的内部通信量是很小的。
50,根据你对存储网格的理解,设计一个应用在局域网内部的虚拟化存储系统。★★★
答:
系统结构如图所示
整个系统主要包括存储服务点SSP(Storage Service Point)、 全局命名服务器GNS ( Global Name Server)、资源管理器RM(Resource Manager)、认证中心CA(Certificate Authority)、 客户端、存储代理SA(Storage Agent)以及可视化管理。
SSP是整个系统的入口,对系统所有模块的访问都通过SSP,它主要提供FTP接口、CA接口、RM接口和GNS接口;系统中SSP的个数可以根据需要动态增加;SSP接管了传统方案中GNS的部分功能,减轻了GNS的负载,提高了系统的可扩展性。
GNS负责系统的元数据管理,主要包括元数据操作接口、元数据容错系统、元数据搜索系统。
RM包括资源调度模块和副本管理模块,其主要负责资源的申请和调度,同时提供透明的副本创建和选择策略。
客户端目前支持三种形式:通用FTP客户端、文件访问接口和特制客户端。用户通过系统提供的特制客户端,不但能够进行用户组操作,具有搜索和共享等功能,还可以获得更高性能的服务。
CA包含证书管理系统,主要负责系统的安全性和数据的访问控制,同时它记录了用户的注册信息。
SA屏蔽了存储资源的多样性,为系统提供统一存储访问接口,同时提供了文件操作方式和扩展的FTP操作方式,另外它对文件复制管理操作提供支持,为高效传输提供服务。
目前两项最热门的技术就是网格计算和 Web 服务,但是这两者是兼容的吗?在本文中,Martin C. Brown 告诉我们这两个系统实际上兼容程度是相当高的,并描述了在网格应用程序中使用 Web 服务的好处。为了确定网格计算和 Web 服务是否相互兼容,我们需要研究一下网格计算的工作方式,看看我们是否真的可以将一个典型的网格系统分解成若干个相对分散的单元。网格计算的架构依赖于相当基本的原理,即在多台客户机和多台服务器之间传送简单的请求。 Web 服务依赖于处理从一台客户机发送到一台服务器上的请求。
如果您尚未看到这一点是如何适应已有的网格结构的,本文将探讨两种最常见的网格系统:请求架构和分发架构。请求系统依赖于客户机请求工作,而分发系统依赖于代理直接给客户机提供工作。这两种系统在与 Web 服务结合的时候面对的是不同的问题,这一点我们也会讨论到。
网格通信在网格计算中,基本存在两种主要的组件类型 —— 服务器和客户机。服务器用于分发工作请求及保存有关构成整个工作的独立工作单元的信息。客户机(典型情况下有多个)负责处理独立的工作单元。这两者之间的通信方式有多种,但是系统的核心是对工作的分发。再次指出,系统采用两种工作方式中的一种,要么是客户机管理自己的工作流,并向服务器请求新的工作单元,要么是服务器将工作单元分发给客户机。
通信过程并不是到这里就停止了;通常还需要额外的服务器和服务来支持网格服务器的基础设施,它们相互之间需要进行对话,并交换信息。关键的问题在于,通常情况下网格解决方案中交换的是相当分散的信息片断。在客户机和服务器之间交换的是原始的工作单元和处理之后的响应。甚至在数据负载相当高的情况之下,如进行数据处理或视频呈现时,我们依然在交换信息包,而不是在客户机和服务器元素之间建立完全、双向、永久的通信。
新版的 WebSphere 扩展包中的网格思想更为激进,甚至允许将到 WebSphere 应用程序的 Web 请求通过 WebSphere 服务器进行分发。这个例子也证明了网格管理与实际的工作分发都可以通过相当简单的数据交换来完成。
规则中当然总有例外。并不是所有的网格系统都依赖于如此直接的简单包交换。比如说,资源网格通常依赖于网格提供者(客户机)之间相当繁重的相互通信,这样才能在网格上实现实时的存储请求。不过在这些情况下,即便当客户机之间直接进行通信时,依然是一种基本的信息交换。因此,如果我们仅仅在交换信息,当然就应该用一种标准的方法在服务器和客户机之间进行通信。这也就是 Web 服务的用武之地。
Web 服务概览在我们能够理解 Web 服务如何为我们的网格解决方案提供支柱之前,我们需要理解 Web 服务的工作方式。最简单的方法是将其想像成一种远程过程调用(RPC),通过这种方式我们可以从一台计算机(客户机)上调用某个功能,而代码和实际的功能是在另外一台计算机(服务器)上执行的。
各种各样的 RPC 中不存在新东西。一段时间以来,各种不同的平台上都有不同的实现。也许最有名的 RPC 实现是 UNIX 机上的。这一实现使用了一组复杂的函数,可以使客户机与服务器之间进行信息交换,它将一种基本的 C 结构转换成一种可以在网络上广播的标准化格式,即外部数据表示(External Data Representation, XDR)格式。这种方法对数据进行了序列化和标准化的处理,转换后的数据格式可以被该 RPC 架构下的任何客户机或服务器解码出来。
最近 Web 的爆炸式发展意味着,每当我们访问某个 Web 站点的时候,我们很自然就是在进行远程过程调用。我们的客户机就是浏览器,它向一台服务器(如 Apache, IIS 等)请求一个文件,然后,处理并显示得到的信息。这是一个简单的数据交换过程。有了公共网关接口(Common Gateway Interface, CGI)、JSP、ASP 这样的动态技术,我们才真正是在调用远程过程。交换过程是以 HTTP 请求和 HTML 响应的形式进行的,但是达到的效果一样:我们调用远程机器上的过程,然后获得一个响应。
通过以某种方式标准化信息的交换过程,我们就得到了 Web 服务。请求和响应都以 XML 编码。从基本相同的技术派生出两个变种:XML-RPC 的设计目标与它的缩写名所暗示的完全一样 —— 发送和接收用 XML 格式化的远程过程调用;简单对象访问协议(Simple Object Access Protocol, SOAP)更加高级。SOAP 的核心依然是一种 RPC 技术,但是这种技术经过增强,可以实现对一个对象的远程操纵。这样 SOAP 就不是一种简单的 RPC 调用,而是可以创建对象、操纵对象、并用这个对象在服务器和客户机之间进行更加确切和格式化的信息交换。
Web 服务可以由任何一种 Web 服务器提供,可以在几乎所有的支持平台上用几乎所有的语言书写,其中包括 Perl、Python、C/C++、Java 语言以及 Visual Basic。Web 服务的核心基本上是 Web 服务器上的一个动态组件,它能够正确地处理 Web 服务请求和响应。这意味着,在很多情况下,您可以很容易在您的已有系统中创建一个 Web 服务的接口。您需要做的只是在通常进行的常规系统调用外围编写一个包装器。
网格与 Web 服务之间的界限逐渐模糊到目前为止,我们已经探讨了通过交换信息而实现的网格技术,这种交换既可以在服务器和客户机之间进行,也可以直接在客户机之间进行,从而实现对信息的处理和分发。但是这种交换系统需要借用某种方式进行真正的信息交换。这些年来,人们使用了很多种系统,包括 FTP 协议和定制的协议系统。
目前,在 Web 服务阵营之中,我们已经拥有了一种通用的工具,可以用来在两台机器之间交换信息,比如说请求执行某项特定的功能(如 getnewworkunit()),或是简单地在这两者之间交换信息。因为 Web 服务是建立在 XML 等其他标准之上的,因此很容易开发并扩展到各种不同环境中,并且也容易部署。我们摆脱了不同系统间数据交换的所有问题,并且不需要担心处理器字节中的位次序(endian-ness),也不需要将我们传递的信息转换成中性格式,因为 Web 服务的标准已经替我们做了这些事情。
因为我们需要用某种类型的侦听程序/分发服务来处理请求、分发工作以及收集结果,所以 Web 服务就是最理想的选择。Web 服务系统带来的主要益处在于,因为它依赖于 HTTP 协议,因此很容易将 Web 服务集成到已有的 HTTP 平台、路由器、防火墙以及其他系统中。大多数组织已经运行了 HTTP 服务,因此您可以用已有的技术和安全系统来支持您的网格系统,而不需要对网络进行改造,也不会对网格系统中的设备造成限制。
这样,用 Web 服务开发网格系统就具有了一些无可比拟的优势,其中包括:
·增强的兼容性。
·增强的灵活性。
·通过消除数据交换的复杂性,使跨平台开发成为可能。
·很容易部署在已有的 Web 服务器上。
·很容易通过已有的 HTTP 安全机制与防火墙的支持来提供安全性。
·通过 Intranet 或 Internet 访问网格组件的难度降低,这样就使得通信变得容易,可访问性增强。
出于所有上面这些理由,以及更多的原因,Web 服务已经逐渐成为新的网格服务标准 —— 开放网格服务架构(Open Grid Services Architecture, OGSA)以及与之相伴的开放网格服务基础设施(Open Grid Services Infrastructure, OGSI)—— 的一个组成部分。Globus Toolkit 3.0 是第一个完全支持 OGSA/OGSI 标准的网格平台,它支持将 Web 服务作为数据交换的平台。IBM 作为 OGSA 标准和 Globus 系统的关键参与者,给 Web 服务提供了强有力的支持,现在正推荐人们在业务开发平台中广泛使用 Web 服务。Globus 支持 SOAP Web 服务协议。
Web 服务方法还带来其他一些好处。Web 服务可以通过多种不同的 Web 服务目录和系统发布,其中包括像统一描述、发现与集成(Universal Description、Discovery and Integration,UDDI)和 Web 服务描述语言(Web Services Description Language, WSDL)这样的系统。为了让网格计算能更容易部署,我们需要通过这样的目录和系统来发布服务。不管您是否选择 Globus Toolkit,都需要考虑如何在您的网格系统中应用 Web 服务。有两种 Web 服务可供使用,它们分别适应两种典型的网格服务结构:请求架构,在这种架构之下客户机与一个或者多个中央服务器进行联系;分发架构,服务器直接与客户机联系。对于每一种架构,在网格应用程序中使用 Web 服务之前您都必须考虑一些问题。下面几节将详细讨论。
支持请求架构Web 服务的主要应用位置是在分发和代理的一端,也就是说,点单元被分布到网格中的客户机(提供者)上,这就是一种请求架构的例子,其中客户机从网格代理那里请求工作。请求架构事实上是可以支持 Web 服务的最简单的系统,因为这样的系统可以像以前一样很好地工作:客户机向一个可用的服务器发送已经完成的工作单元,并从那里请求新的工作。您需要做的事情只是安装 Web 服务和 Web 服务器,可以单独安装,也可以直接安装在代理服务器上,然后添加代码以将您的 Web 服务连接到代理。整个系统的工作情况如图 1 所示:
图 1. 请求架构运行图Globus 对于这种架构是一个理想的解决方案,因为 Web 服务组件可以很方便地对系统中的客户机和服务器提供支持。
支持分发架构分发架构与传统的网格服务模型相反,它直接从服务器向客户机分配工作。这种架构尽管不常用,但是如果某种环境中的工作是受到控制的,并可以仔细地分配到特定的执行单元,并分别监控,那么这种架构对于分发工作就是很实用的方法。然后,由服务器负责单独管理和分配每一个单元。
分发模型对于时间要求高的任务分配是一种好办法,因为工作单元可以根据机器的负载和代理上的服务器队列分配到独立的机器上。这种模型特别适合用于 Intranet 和封闭的网络中,因为访问和通信都很方便,因此系统的效率也相对较高。这种模型还适用于工作提供者(即客户机)完全用来处理网格工作的情况。
分发系统惟一的问题是实现难度比较大。这种模型不是由服务器运行 Web 服务系统,客户机作为 Web 服务的客户机,而是调了个头。网格提供者(通常应该是“客户机”)需要支持一个 Web 服务的服务器接口。这时,代理(通常是“服务器”)成为网格提供者的 Web 服务客户机。您可以从图 2 中看到这种模型的运行情况:
图 2. 分发模式下的 Web 服务在这里的 Web 服务机制的基础之上还存在以下问题:
·代理需要确切知道哪些机器是网格的一部分,因为它需要能分别访问这些客户机。
·每一个客户机都必须支持 Web 服务模型,该模型又依赖于客户机提供 HTTP 服务。
·每一个客户机都必须能够确定自己的负载和性能,这样才能在代理请求的时候将这些信息提供给它。
尽管需要解决上面的每一个问题,分发架构使用起来依然相对简单。然而 Globus Toolkit 目前并不支持这种模型。这并不意味着我们不能在其他领域内使用 Globus Toolkit,但是却意味着您必须重新考虑客户机和代理之间是如何交换任务的。
结束语将网格应用程序和 Web 服务集成实际上并不像刚开始看上去那么复杂。大多数网格应用程序的基础使它们很容易转移到 Web 服务的架构上来,但是您需要考虑对您的网格应用程序设计的影响,以保证您的后端系统(包括代理、工作单元管理器以及其他组件)都能与您所期望的客户机工作方式兼容。
关于作者 Martin C. Brown 以前担任过 IT 主管,在跨平台集成方面有丰富的经验。他作为一名目光敏锐的开发人员,一直为特殊的用户制作动态站点,并兼任 Foodware.net 的技术主管。现在他是一名自由作家和顾问。他更出名的地方是作为一名 SME 和微软公司的紧密合作。此外,他还是 LinuxWorld 杂志的 LAMP 技术编辑,以及 AnswerSquad.com 团队的核心成员。他撰写的书籍有 XML Processing with Perl、Python and PHP 以及 Microsoft IIS 6 Delta Guide,等等。您可以通过 questions@mcslp.com 与 Martin 取得联系。
来自:http://www.net130.com/netbass/grid/wg20040410033.htm
网格基础概念,大家一起商榷。这是任浩、pphu、数字中国、Rose(王跃宣)等网友的共同工作成果,在此代表网格社区对他们表示感谢!
1.什么是网格,网格的目标?
网格是从电力网格中借鉴过来的一个概念,原本是希望计算力和计算资源能够象电力一样,“打开电源开关就可以使用”,不用去关心是谁、如何提供的这些服务。
网格的目标是抽象并量化计算资源,随时随地能够通过网络“定额”完成“定量”的计算相关的工作。
2.网格的本质特征是什么?
网格的本质特征是:
分布与资源共享:分布是网格最本源的特征,网格是通过集中分散的资源来完成计算的,资源的共享是一种集中资源的手段
高度抽象:把计算力和所有的计算资源高度抽象成为用户可见的“电源接线板”,其它的东西对用户透明。
自相似:在大尺度上和小尺度上有相同或者类似的规律
动态性和多样性:和电力网格一样,用户的需求是变化的,所以动态性是网格需要考虑的一个基本问题
自治性与管理的多重性:网格节点内部的自治和外部的受控整合是网格的一个特征,分层的资源需要层次化的管理,而分层来自于网格节点的归属问题和性能方面的考虑。
3.网格计算中有哪些基础概念?
资源发现:资源发现是网格主动去发现可用的资源,并注册、管理这些资源的过程
资源调度:如何充分利用网格收集的计算资源进行高效率地合理地使用是资源调度的研究范畴
异构:是抽象的本源动力
元计算:是关于“计算”的计算,就像“元语言”是描述语言的语言一样,元计算是为了进行计算而展开的计算活动,是网格对资源进行抽象的过程
计算网格:网格的重心在解决高密度的计算问题的网格结构
数据网格:重心在高密度、海量数据的储存和管理、使用过程的网格结构
4.如何判断是否是网格
还没有网格的确切定义出炉,只能根据网格的一些基本特征来判断。P2P严格来说也是一种网格。
根据Globus toolkit的创始人的观点,Globus就是网格,这个观点有些偏颇,姑且这么认为吧。
5.网格目前有标准吗,有人在制定标准吗?
OGSI和OGSA是目前关于网格的一个标准
6.能用非常简单的例子说明什么是网格吗?
例如P2P,目前已经实现了储存共享,以解决服务器资源限制(带宽和服务能力)的问题,但是目前的P2P 计算还在热门研究中。它的特点是通过分布式的共享储存和带宽资源,也包括部分计算资源的共享来提高服务的可用性,已经包括了网格的几个主要特征。
又如,国外一些如抗癌项目,充分发掘PC 的计算力来寻找治疗癌症的新药,也具有相应的特征,只不过其资源调度的粒度很粗,各节点的耦合很松散,只要计算任务和结果,节点只与中央节点交换数据,结构比较简单。
7.如何在应用领域体现网格的优势
高性能(大计算吞吐量)、低成本
8.为什么要把网格比做电网
不要考虑计算力从什么地方来,只管用就行了。
9.网格如何分类
分为计算网格、数据网格、访问网格、信息网格、服务网格等
10.何为元计算,与网格是什么关系
元计算技术是将一组通过广域网连接起来的性质不同的计算资源集合起来,作为一个单独的计算环境向用户提供计算服务。元计算系统的目标是使用户能够共享其中的计算资源并以合作的方式进行计算。元计算前端主要解决最终用户通过统一的界面来使用广域网上各类计算资源的问题;元计算内核主要解决计算任务在广域网中各种超级计算机上协作完成的问题,提供一个完整的程序开发和运行环境。当用户提出计算请求时,计算问题的执行代码在系统内部的计算资源上进行合理的调度和管理,最后得出运行结果并通过元计算前端反馈给最终用户。一个良好的元计算系统主要由三个部分组成:一是尽量简单而又可靠的使用界面;二是资源管理系统;三是良好的编程模型和高效可靠的运行时环境。其中资源管理系统处于核心地位,它负责整个系统中各个资源的描述、变动、分配与保护,与运行时系统密切合作,保证整个系统的正常运行。资源管理系统需要为不同级别的系统管理员提供强有力的工具或界面来对这些资源进行控制和保护。
元计算是网格计算的初级形态。
11.什么是计算网格
强调计算力获取、管理等的网格
12.什么是数据网格
强调数据存储、管理、传输、处理的网格
13.什么是信息网格
强调信息存储、管理、传输、处理的网格
14.什么是存储网格
强调数据存储的网格
15.什么是知识网格
强调知识存储、管理、传输、处理的网格
16.什么是语义网格
强调语义解析的网格,实现语义互操作
17.什么是access grid
简单来讲,是一个项目。目的是为网格用户提供简单有效的视频、音频会议功能,为e-science提供基础的工具。 提供单一访问通道获取网格资源的网格。
18.什么是grid portal
格网门户,提供格网单一访问通道
19.什么是服务网格
强调应用服务集成的网格
20.目前有哪些应用网格
美国科学格网(DOE Science Grid)、远程分布式计算与通信(Distance and Distributed Computing and Communication,DisCom2)和地球系统格网(Earth System Grid II,ESG)、TeraGrid和国家地震工程仿真格网(Network for Earthquake Engineering Simulation Grid,NEES Grid)、CrossGrid、天体物理虚拟天文台(Astronomical Virtual Observatory,AVO)、英国国家格网(U.K. National Grid)、德国的计算资源统一接口项目(Uniform Interface to Computing Resources,UNICORE)、亚太地区格网(APGrid)
21.什么是P2P计算,与网格有什么关系
对等(P2P)计算是在Internet上实施分布式计算的新模式。在这种模式下,服务器与客户端的界限消失了,网络上的所有节点都可以“平等”共享其他节点的计算资源。IBM为对等下了如下定义:对等系统由若干互联协作的计算机构成,且至少具有如下特征之一:系统依存于边缘化(非中央式服务器)设备的主动协作,每个成员直接从其他成员而不是从服务器的参与中受益;系统中成员同时扮演服务器与客户机的角色;系统应用的用户能够意识到彼此的存在,构成一个虚拟或实际的群体。
网格采用P2P计算体系结构
22.网格与分布式计算是什么关系
格网计算是一种新的高性能的分布式计算方法。格网计算作为新一代的分布式计算方法,与传统分布式计算的主要区别在于在没有集中控制机制的情况下,通过对计算资源进行大规模共享,满足应用对高性能计算要求,并且这种对计算资源进行大规模共享是动态的、柔性的、安全的和协作式的。
23.网格与中间件是什么关系
网格中间件(Gridware)就是一种在网格中应用的中间件
现在的globus toolkit就是一种网格中间件,连接异质的主机节点构成globus网格
24.什么是web service,网格与web service是什么关系。
OGSA吸纳了许多Web服务标准,如Web服务描述语言(WSDL)、简单对象访问协议(SOAP)、轻目录访问协议(LDAP)、Web服务探测(WS-Inspection)等。这些标准用于定位、调度计算资源并保证它们的安全。
OGSA采用Web服务框架的优点是:一方面,通过注册和发现接口定义和终端(endpoint)实现描述以及动态产生特定接口绑定的代理,在异构环境中能够支持服务的动态发现和合成。另一方面,由于Web服务机制在商业应用领域广泛采用,OGSA采用Web服务框架使人们能够利用许多现有的开发工具和扩展服务,如产生语言绑定的WSDL处理器。
25.网格跟.net, corba, jini,java的rmi,J2EE都是什么关系。
网格融合了.net, corba, jini或java的rmi,J2EE思想,并从软件集成扩展到CPU、存储设备、仪器等硬件的集成。
26.网格和CSCW是什么关系
CSCW可以定义为地域分散的一个群体借助计算机及其网络技术,共同协调与协作来完成一项任务。网格促进了这种工作模式。
27.网格跟IBM提出的自主计算有什么关系
“自主计算”的设想是将日益复杂的IT系统管理后台化、自动化和智能化,通过强大的中间件将异构网络改造成真正意义上的和谐自主的数字神经系统。
网格本身就是一种自主计算
28.什么是网格的体系结构
网格体系结构就是关于如何建造网格的技术描述。它给出了网格的基本组成与功能,描述了网格各组成部分的关系以及它们集成的方式或方法,刻画了支持网格有效运转的机制。
29.网格的主要有那些体系结构,他们目前发展状况如何。
美国Globus项目提出的格网体系结构模型采用本地服务层、核心服务层、高层服务与工具层、应用层四层结构。在此基础上,美国的Argonne国家实验室、芝加哥大学、南加州大学和IBM公司共同提出了开放式格网服务体系结构(Open Grid Services Architecture,OGSA)。OGSA采用纤维层、联络层、资源层、协作层、应用层五层结构。
30.网格的起源是什么
“网格”(Grid)一词来源于人们熟悉的电力网(Power Grid)。目前对计算力的需求正在持续不断地增长。高速网络、功能和性能更加强大的大规模计算系统、高性能存储系统以及高级数据分析软件的应用为解决商业领域和科学领域的计算问题带来了希望。但是利用这些新的能力意味着应付不断增加的工作负荷要求所带来的空前挑战。当一个组织机构在努力保持竞争力的时候他们面临许多前所未有的挑战:减少计算费用、增加计算吞吐量、加快对市场的响应、改进生产服务质量和产品创新等都是非常重要的。一个组织机构在硬件方面的投资需要谨慎地进行权衡,并且必须找到利用可得资源完成更多工作的方法。
尽管对计算力的需求是非常大的,但是许多现有的系统都没有得到充分利用。其中一些单个服务器也许满负荷工作,但是大多数系统却不是满负荷工作的,使许多计算周期(computing cycles)没有使用,而实际上这些计算周期可以用于满足不断增长的计算资源需求。格网计算使组织机构可以更加有效地和灵活地用他们的分布式计算资源,从现有的系统中获取更加有用的计算力,帮助组织机构获得竞争优势。
31.网格目前的发展状况如何
研究、开发、炒作,即处于预热期。
32.国内的网格有那些项目,每个项目的目标如何,目前进展如何。
ACI工程的目标是把分布在不同地理位置的高性能计算机、贵重仪器、数据库等用高速网络连接在一起构成一台虚拟计算机,用户通过ACI共享资源、共同讨论、合作开展科研项目。
织女星计划(Vega计划以元数据、构件框架、智能体、格网公共信息协议和格网计算协议为主要研究突破点。
33.介绍一些国外的主要网格项目的状况
美国科学格网项目的目标是建立基于格网中间件(Gridware)和系统工具的高级分布式计算基础设施(ADCI)使能源部科学计算体系的可伸缩性满足能源部内部科学研究任务要求。
远程分布式计算与通信项目的目标是创建一个用于访问美国能源部三个武器实验室的具有可操作性的格网,以支持国防计划中远程计算和分布式计算这两个关键战略领域复杂的分析、设计、制造、认证功能。
地球系统格网(Earth System Grid II,ESG)项目由阿贡国家实验室(Argonne National Laboratory)等五个国家实验室的科学家联合承担。主要目标是解决从全球地球系统模型分析和发现知识所面临的巨大挑战,为下一代气候研究提供一个无缝的强大的虚拟协同环境。
国家地震工程仿真格网的目标使地震研究人员能够进行各种地震工程实验数据分析的大规模计算任务。
此外,目前美国正在进行的格网计算研发项目还包括Globus、美国航空航天局(NASA)的信息动力格网(Information Power Grid,IPG)、美国国家技术格网(National Technology Grid)、虚拟实验室项目(Virtual Laboratory Project)、天体物理仿真合作实验室(Astrophysics Simulation Collaboratory,ASC)、国际虚拟数据格网实验室(International Virtual Data Grid Laboratory,iVDGL)等。Globus目标构建一个格网软件基础设施。研究内容包括资源管理、数据访问、应用开发、格网安全等。目前全球许多用户利用Globus工具包创建格网和开发格网应用。信息动力格网的目标是为国家航空航天局科学研究任务提供持续、可靠的计算动力源。美国国家技术格网项目的目标是创建一个无缝集成的协同计算环境原型系统。虚拟实验室项目致力于研究、设计、开发能够帮助解决数据密集的、涉及大规模计算的分子生物学问题的格网技术。天体物理仿真合作实验室项目的主要目标利用Cactus和Globus格网计算的研究成果为高级可视化交互和元计算提供大规模并行计算能力,实现在相对论天体物理学领域的大规模仿真。国际虚拟数据格网实验室项目由欧盟的数据格网(DataGrid)、美国的格网物理网络(Grid Physics Network)和粒子物理数据格网(Particle Physics Data Grid)协作创建。
34.网格的发展有哪些困难
信息安全、商业模式等
35.网格面临哪些技术问题
格网资源管理、注册、预订、分配、调度、安全、计费等
36.GGF主要的工作是什么
应用程序及编程模型和环境(APME)。
架构。
数据。
安全性。
信息系统和性能(ISP)。
端到端应用(P2P)。
调度和资源管理(SRM)。
37.国内有类似GGF的组织吗
没有,至少没有成规模、成气候、分工协作。
38. OGSA,OGSI,Globus,WSRF有什么关系
OGSI(Open Grid Service Ieterface,开放网格服务接口)规定了向网格发送处理请求时所使用的接口,相当于Web服务中的WSDL(Web服务描述语言),在网格计算相关标准中处于核心地位。
开放式格网服务体系结构(Open Grid Services Architecture,OGSA)采用纤维层、联络层、资源层、协作层、应用层五层结构,格网是通过调用服务来构造应用的,这就涉及接口问题。
OGSA是一个抽象的东西,里面没有具体的内容,OGSA的推出要比OGSI早,OGSI是对OGSA的主要方面具体化,规范化.Globus是基于OGSI标准的一个实现. WSRF是和OGSI同一个层次的东西,是吸收了Web Service最新成果后,对OGSI的重构和发展.
39.网格是一种新技术,任何新技术或多或少都会带有泡沫的成分?你是否赞成?网格技术是否也带有泡沫的色彩?
技术本身没有泡沫,泡沫是商业炒作产生的,现在已经开始商业炒作了。
40.从总体上看,网格技术目前的发展,是处在一个什么状况?
技术研究开发阶段
41.网格离实际应用,离商业应用还有多远?
2到3年时间
42.一个新技术,从理论性的研究,到实际的商业的推广需要经历几个阶段,你认为“网格”需要经历几个阶段,才能走向真正的商用?
原型应用系统开发、格网标准化(规范、协议)、成熟的商业模式
43.网格想要得到广泛的商业应用,是否会遇到一些阻碍?
是的,例如安全问题、计费问题等。
44.任何一个新技术的发展趋势,都应该受到身在政府、行业、企业中的CIO所关注。你认为作为“网格”技术,这些CIO应该从哪几方面进行关注?
网格在政府、行业、企业中的应用
45.什么才算是Ian Foster三个checklist中的非平凡服务?
大吞吐量、服务透明、高可靠性
46.学习网格要学习哪些基础知识
计算机原理、计算机网络、数据库、编程语言等
47:什么是制造网格
是现代集成制造哲理和敏捷制造模式在网络化经济环境下的一种具体物化形式,目标是快速设计、快速制造、快速检测、快速响应和快速重组,克服空间上的距离给不同企业间的协同带来的障碍,在最大程度上实现设计、制造、信息、技术资源的共享,以及协同制造过程中物流、信息流、价值流的优化运行,它能为实现敏捷制造和虚拟企业的运作提供支持,形成具有数字化、柔性化、敏捷化等基本特征的优势互补的协同企业。而在这样的制造网络支持下,整个制造网格系统中的制造企业群体将以较低的成本、较短的开发周期,制造出符合市场需求的高质量产品。
GT4教程http://gdp.globus.org/gt4-tutorial/multiplehtml/index.html
所用软件:
操作系统:Win xp
gt4版本:ws-core-4.0.4-bin
j2sdk1.4.2_05
jakarta-tomcat-5.0.28 apache-ant-1.7.0-bin axis-bin-1_4
python-2.5.msi
部署环境变量:
ANT_HOME= C:\Grid\ant-1.7.0
CATALINA_HOME= C:\Grid\tomcat5.0.28
CLASSPATH=.;%JAVA_HOME%\lib;%JAVA_HOME%\lib\dt.jar;%JAVA_HOME%\lib\tools.jar
JAVA_HOME= C:\j2sdk1.4.2_05
GLOBUS_LOCATION= C:\Grid\ogsa
PATH=.;C:\Grid\ogsa\bin;%JAVA_HOME%\bin;%JAVA_HOME%\lib;%ANT_HOME%\bin;%CATALINA_HOME%\bin;%JAVA_HOME%\lib;
1、 将教材中的例子下载到本地f盘(F:\progtutorial-examples_0.2.1)
2、更改服务名称(老师要求 与部署无关):
将$EXAMPLES_DIR/org/globus/examples/services/core/first/deploy-server.wsdd文件中,service的name属性进行更改:将service name="examples/core/first/MathService"变更为service name="examples/core/first/200628007427021MathService"。
对$EXAMPLES_DIR/org/globus/examples/services/core/first/deploy-jndi-config.xml文件中,service的name属性进行更改,将<service name="examples/core/first/MathService">变更为<service name="examples/core/first/200628007427021MathService">
3、安装python for windows 。
4、 进入F:\progtutorial-examples_0.2.1,输入globus-build-service.py first。在该目录下编译生成gar文件。
5、 部署gar文件:在根目录下F:下进行部署:globus-deploy-gar F:\progtutorial-examples_0.2.\org\gloubs_examples_services_core_first.gar
6、进入%GLOBUS_LOCATION%\etc,输入globus-devel-env.bat,将GT4的lib下面的jar文件路径包括进去。
7、运行正常后,就需要编译Client.java文件了。
进入F:\progtutorial-examples_0.2.1,javac org\globus\examples\clients\MathService_instance\Client.java编译客户端程序。
8、启动globus服务。
Globus-start-container -nosec。运行界面如下:
9、在F:\progtutorial-examples_0.2.1下运行客户端,
Java org.globus.examples.clients.MathService_instance.Client http://127.0.0.1:8080/wsrf/services/examples/core/first/200628007427021MathService
将出现结果如下:
来自:http://blog.sina.com.cn/u/4b7a232a01000904
Linux下jsp开发环境,apache,tomcat服务器配置过程:
(特别注明:本文内容均参考于互联网,经过个人实践而总结,若配置中遇到问题请联系我,可能写的时候漏掉了某些地方,感谢网上前辈的经验,希望更多的实践经验得以共享)
1.操作系统
RedHat
Linux 9.0
2.所需软件
Apache
2.0.54
下载地址
http://apache.freelamp.com/httpd
下载该文件httpd-2.0.54.tar.gz
Tomcat5.5.9
下载地址
http://apache.justdn.org/jakarta/tomcat-5/v5.5.9/bin/
下载该文件jakarta-tomcat-5.5.9.tar.gz
Mod_jk
1.2.14
下载地址
http://apache.justdn.org/jakarta/tomcat-connectors/jk/source/jk-1.2.14/
下载该文件jakarta-tomcat-connectors-1.2.14-src.tar.gz
Jdk
1_5_0_04
下载地址
http://java.sun.com/j2se/1.5.0/download.jsp
下载该文件jdk-1_5_0_04-linux-i586-rpm.bin
下载时将所需软件包文件保存在/usr/local目录下
3.安装步骤
A
安装JDK
#
cd /usr/local/
# chmod +x jdk-1_5_0_04-linux-i586-rpm.bin
#
./jdk-1.5.0_04-linux-i586-rpm.bin
# cd /usr/java/
# ln
-s /usr/java/jdk-1_5_0_04 /usr/local/java
# vi
/etc/profile
#
添加如下内容
JAVA_HOME=/usr/java/jdk-1_5_0_04
CLASSPATH=/usr/java/jdk-1_5_0_04/lib/dt.jar:/usr/java/jdk-1_5_0_04/lib/tools.jar
PATH=/usr/java/jdk-1_5_0_04/bin:$PATH
export
PATH JAVA_HOME CLASSPATH
B 安装Apache
#
cd /usr/local/
# tar xvfz httpd-2.0.54.tar.gz
# cd
httpd-2.0.54
# ./configure --prefix=/usr/local/apache
--enable-module=so
# make
# make install
# cd
/usr/local/apache/conf
# vi ./httpd.conf
将Listen
80 修改为Listen
127.0.0.1:80 (219行)
将ServerName
修改为ServerName
LocalHost:80 (291行)
在DirectoryIndex中添加
index.jsp (394行)
#
cd /usr/local/apache/bin/
# ./apachectl configtest
显示Syntax
ok则表明安装成功
#./apachectl
start
启动apache服务,浏览器中访问本机80端口,查看端口是否正常,输入127.0.0.1:80
#
./apachectl stop
关闭服务
备注:prefix定义apache的安装路径
C安装Tomcat
#
cd /usr/local/
# tar xvfz jakarta-tomcat-5.5.9.tar.gz
#
ln ?s /usr/local/jakarta-tomcat-5.5.9 /usr/local/tomcat
#
vi
/usr/local/tomcat/bin/catalina.sh
第46行加入此句
JAVA_HOME=/usr/java/jdk-1_5_0_04
启动服务后,访问本机8080端口,查看端口是否正常(输入127.0.0.1:8080)
#
/usr/local/tomcat/bin/startup.sh /startup.bat
关闭服务
#
/usr/local/tomcat/bin/shutdown.sh /shutdown.bat
D 安装JK
#
cd /usr/local/
# tar xzvf
jakarta-tomcat-connectors-1.2.14-src.tar.gz
# cd
jakarta-tomcat-connectors-1.2.14-src/jk/native
# chmod 755
buildconf.sh
# ./buildconf.sh
# ./configure
--with-apxs=/usr/local/apache/bin/apxs
# make
# make
install
# cd
/usr/local/jakarta-tomcat-connectors-jk1.2.14-src/jk/native/apache-2.0/
#
cp mod_jk.so /usr/local/apache/modules/
E 系统整合
#
vi /usr/local/apache/conf/httpd.conf
在文件最末尾加上如下语句
#Load
mod_jk
LoadModule jk_module modules/mod_jk.so
#
Configure mod_jk
JkWorkersFile
conf/workers.properties
JkLogFile logs/mod_jk.log
JkLogLevel
info
JkMount /*.jsp loadbalancer
JkMount /servlet/*
loadbalancer
JkMount /application/* loadbalancer
#vi
/usr/local/apache/conf/workers.properties
添加下列语句
#
#
workers.properties
#
# In Unix, we use forward
slashes:
ps=/
# list the workers by
name
worker.list=tomcat1, tomcat2, loadbalancer
#
------------------------
# First tomcat server
#
------------------------
worker.tomcat1.port=8009
worker.tomcat1.host=127.0.0.1
worker.tomcat1.type=ajp13
#
Specify the size of the open connection
cache.
#worker.tomcat1.cachesize
#
# Specifies
the load balance factor when used with
# a load balancing
worker.
# Note:
# ----> lbfactor must be > 0
#
----> Low lbfactor means less work done by the
worker.
worker.tomcat1.lbfactor=100
#
------------------------
# Second tomcat server
#
------------------------
worker.tomcat2.port=8009
worker.tomcat2.host=192.168.1.34
worker.tomcat2.type=ajp13
#
Specify the size of the open connection
cache.
#worker.tomcat2.cachesize
#
# Specifies
the load balance factor when used with
# a load balancing
worker.
# Note:
# ----> lbfactor must be > 0
#
----> Low lbfactor means less work done by the
worker.
worker.tomcat2.lbfactor=100
#
------------------------
# Load Balancer worker
#
------------------------
# The loadbalancer (type lb) worker
performs weighted round-robin
# load balancing with sticky
sessions.
# Note:
# ----> If a worker dies, the load
balancer will check its state
# once in a while. Until then
all work is redirected to peer
#
worker.
worker.loadbalancer.type=lb
worker.loadbalancer.balanced_workers=tomcat1,
tomcat2
#
# END workers.properties
#
#vi
/usr/local/tomcat/conf/server.xml
<Connector port="8009"
protocolHandlerClassName="org.apache.jk.server.JkCoyoteHandler"
redirectPort="8443"
protocol="AJP/1.3" />
第101行
在119行左右加入如下语句(去注释)
<Engine
name="Standalone" defaultHost="localhost"
jvmRoute="tomcat1"></Engine>
若第二台tomcat,将jvmRoute的修改为tomcat2
系统整合完毕
启动apache和tomcat服务
#
/usr/local/apache/bin/apachectl start
#
/usr/local/tomcat/bin/catalina.sh
start
将如下内容添加至/etc/rc.d/rc.local文件末尾
以便系统启动后开启apache,tomcat服务
#vi
/etc/rc.d/rc.local
添加
/usr/local/tomcat/bin/catalina.sh
start
/usr/local/apache/bin/apachectl start
来自:http://skeryl.blogcn.com/diary,4853988.shtml
有个朋友看我半年没有用 Windows,有时就会问我:"你只用 Linux,有没有发现有些 Windows 能处理的事情 Linux 干不了?"
我回答说:"Windows 能干而 Linux 干不了的事情,那就是不需要干的事情。"
# Windows 能做的有益的事情 Linux 都能做
Windows
下的某些功能确实是我们需要的,那么 Linux 的开发者们和用户也需要这种功能,他们就会去实现这种功能,而且比 Windows
的方式好得多。由于大多数科学家,工程师用的都是 Linux 或者某种商业 UNIX, 所以几乎所有商业的科学工程程序,比如
Matlab, Mathematica, AutoCAD, Candence的,Synopsys的,Avant! 的......全都是先有
UNIX 的版本 (包括Linux),然后再考虑移植给Windows,甚至根本不移植给 Windows,因为 Windows
的机器一般没有足够的能力运行这样的程序。你不要以为只有 Windows 才有 PSpice, UNIX 的 HSpice
要好得多,而且可以运行在大型主机上。当然它们不是免费的,但是它们值那个价钱。
但是 Windows 下有些东西在 Linux 下没有很相似的,或者你找到很多类似的,但是它们每一个比起 Windows 的那个程序都要差很多,那么原因有两种可能性:
有
一个完全类似的程序,但是由于它乍一看不漂亮,被你忽略了。而其它程序虽然看起来很漂亮,但是它们是一些初学编程的人写的。现在由于 Gtk+,
Qt 的诞生,Linux
下开发图形界面程序极其简单,很多初中生甚至小学生都可以随手编出一些漂亮不中用的程序。如果你整天寻找这样的程序挑来挑去,永远也找不到你满意的。
我
曾经也犯过这样的错误,优秀的 FVWM, lftp, Mutt, wget
都被我忽略过!当我找回它们的时候,我是那么的羞愧不已,它们现在都是我的朋友 用这些程序你可以改变它们的一切,我第一次看到 FVWM
觉得它只不过是一个有很厚很难看边框的东西。可是现在,我的同学看到 FVWM 都说:"哇!真漂亮。"
有另一种完全不同的方式可以达到相同的目的,甚至更好。
很
多人很关心 Open Office, Star Office, AbiWord, ... 他们多么盼望有一天某一个 Linux
程序能够完全兼容的打开一个复杂的 doc
文档。但是你永远也不可能有那一天。为什么呢?因为微软为了占有市场,必定不会让其它系统的程序能够完全兼容它的文档格式!它一定会不断变化 doc
文档的内部结构,隐藏一些秘密,让其它公司的程序打开 doc 文档时总是有某种问题,从而你必需购买 Microsoft Office 和
Windows。
你应该想一下,那么多的高智商的大学教授,科学家,学生,他们用的都是 Linux或者其它类型的 UNIX,他们没有 Word 可用,怎么处理文档呢?这么多年没有一个像 Open Office 的程序出现,难道大家没有办法写文档吗?
显
然不是这样。你看看那些高水平的学术杂志,论文,那些大学教授的网页,那些漂亮的P DF幻灯片,它们是什么做的?原来 UNIX
用户早就有非常方便的 troff,LaTeX, SGML 等东西可以处理文档,而且它们比起 Word 都要高明的多。Word
显然被这些大拿忽略了,以至于很久以来没有人想在 Linux 下开发一个类似 Word的程序,除非某些公司想抢微软的饭碗。
很多人留着 Windows 在硬盘上的原因无非是为了用 Word 和 PowerPoint。你待会儿可以看看我的TeX网页,你就会知道为什么我可以完全离开 Windows.
# Windows 能做的那些没用的事情 Linux 永远做不好
电脑游戏
有些人说 Linux 下不能玩 Windows 下所能得到的所有游戏。的确,Linux 下虽然也有少量的游戏,比如 Quake。但是它没有 Counter Strike, 没有 Star Craft,......
并不是说电脑游戏不该玩,但是应该适可而止。电脑是用来处理事务,帮助你学习,解决问题的工具,而不是一个玩具!整天沉迷于电脑游戏中,而不出去感觉外面的世界,你会变得越来越冷酷,越来越缺乏人情味。你与真实的世界越来越远。
你
可以在 CS 里杀人,你可以在 Tomb Raider 里探险,你甚至可以在 TonyHawk's Pro Skaters
里滑板...... 但是 It's not real!你虽然有很高的"反恐技巧",但是遇到歹徒的时候,你是那么的怯懦;你虽然控制 Laura
伸手敏捷,但是你打篮球的时候怎么总是被人断球?你虽然可以轻易的在 THPS 里作出一个 "360 kickflip to hangten
grind to fakie",但是你踩在自己的滑板上的时候还不会 ollie!
说回来,如果你偶尔玩一下电脑游戏未尝不可。但是世
界上有远比 Windows +PC 更好的游戏方式。Sony 的 PlayStation2, SEGA 的 DreamCast,
Nintendo 的N64,Namco 的街机.. ....每一个都比 Windows 游戏精彩,每一个都有如此高的3D性能,以至于
Pentium4, Itanium + GForce4 都无法与它们比美!
Linux
的用户们都是关心解决世界的关键问题的份子,他们哪里有时间用自己的机器来玩游戏啊?他们每天用Linux高效的做完自己的工作就到阳光下享受自然去了。
要玩游戏也是玩一些类似推箱子,贪吃蛇之类的智力小游戏。所以,你知道为什么 Linux 几乎没有游戏了吧?
"整理硬盘,优化系统"
这是一个非常有意思的话题,仅次于有关"病毒"的话题。相信很多 Windows 用户都有整理硬盘的经历。在很多 Windows 用户眼里,"硬盘用久了,会出现碎片,速度会减慢,需要一个程序来整理,整理硬盘的时候不要做其它工作",这好像是天经地义的事情。
我也曾经津津有味的看着 Norton Defrag 一点一点的把我的硬盘排序,调整,用图形的方式显示出来,然后报告:"100% 没有碎片。你的硬盘现在已经达到最佳状态。" 我现在才发觉我那时是多么的幼稚。
Linux
和 UNIX
用户似乎从来没有"整理硬盘"这种说法呢?你觉得很奇怪吗?如果你觉得很奇怪,那说明你的思想在某种程度上被微软的垃圾程序禁锢了。你需要明白,UNIX
的大型主机很多必须是一天24小时,一年365又1/4天不停运转的,要是每个星期都要整理一次硬盘,在整理的时候几乎不能干任何事情,那是绝对行不通
的!
Linux 机器根本不用整理硬盘,这就是为什么没有看到过 Linux 用户整理硬盘。Linux
的文件系统是比 Windows 的 FAT, FAT32, NTFS
高明得多的文件系统,它们不但可以对文件设置权限,实施完全的保护,而且可以"越用越整齐", "越用碎片越少"!你应该把文件大部分放在 Linux
的分区,而不是 Windows 分区,因为它比 Windows 分区可靠得多。
还有更滑稽的事情就是有很多"Norton
System Doctor","Windows 化大师","超级兔仔注册表魔法"
之类的程序存在,而且价格昂贵。似乎一个操作系统本来应该有很多问题,需要别的厂商做程序来"优化"它,而且为了得到优化,你需要付钱!这些问题
Linux 根本就没有,所以不需要什么优化。Linux 内核本身就是高度优化的。
IDE
有些人在抱怨为什么
Linux 没有一个良好的 IDE 开发环境。Linux 现在已经有一些 IDE 了,但是总是有很多问题。你是不是正在寻找,正在期望
Linux 某一天可以有一个VC 那样的开发环境?你有没有发现你正在进入微软给你设下的怪圈?你为什么一定要用 IDE ?你说:"IDE
开发迅速,调试方便,适合大型程序...... " 那说明微软的程序在你脑子里已经比较根深蒂固,你需要好好清醒一下了,看看我来告诉你。
高明的 UNIX 程序员不用 IDE,IDE 从来就是给初级 Windows 程序员用的。
你
看看大型的 UNIX 程序,包括 Linux 内核,各种网络服务程序,Xwindow 程序在内,哪一个是 IDE
搞出来的?我们实验室的 EDA 程序也没有一个是 IDE 弄的,我还知道 Candence, Synopsys,Mentor
的高性能的图形界面 EDA 程序也都不是 IDE 写的。你信不信,微软的人在写 Windows 本身的时候也根本不用 IDE!
有
一次某杂志采访一些出名的 Linux 内核程序员,包括 Linus 在内,没有一个人用 IDE ,有的人用 VIM,有的用 Emacs,只有
Linus 说 "GNU Emacs is evil",但是其实他用的是一种跟 Emacs 有同样键绑定功能的
MicroEmacs。大家都是用编辑器编辑了程序文件,然后用 make 这样的自动工具调用 gcc 编译器完成编译工作的。
我以前
也编过 Windows 程序:应用程序,驱动程序。但是我没有用 VC 的 IDE。Linux 教育了我,我会在命令行调用 CL,我知道 CL
才是 VC 的编译器。我可以在 cygwin 的 Makefile 里使用 CL。我还知道 CL
的参数都有什么用处。但是这些不是一个从一开头就用 IDE 的人能很快理解到的。
我相信: IDE is evil。我有一些用
Windows 的 IDE
写程序的朋友,他们对那套东西已经很精通了。但是我却惊奇的发现,他们竟然把编译器和汇编器的概念都分不清楚,甚至有的人连"编辑器"和"编译器"都搞混
淆了!他们只知道在一个窗口里输入了代码,点击一个按钮就可以编译程序,但是这里面到底是怎么工作的,他们不知道!他们被盖在上面的窗口挡住了视线,甚至
会以为那个按钮就是编译器!
他们对那些 IDE 的热键背的滚瓜烂熟,但是我却看到他们在一个函数一个函数的把别人的 ANSI 风格的代码变成 VC 的风格。想想这件事在 VIM 里有多么简单,一瞬间就可以搞定。
为
什么 UNIX 程序员不用 IDE?明白了这个道理你就能体会到 UNIX 的设计思想了。首先,一个 IDE
集成了编辑器,编译器,汇编器,调试器,跟踪器...... 这个编辑器功能肯定比不上 VIM 或 Emacs,编译器比不上 GCC,汇编器比不上
as,调试器比不上 gdb, ddd, 跟踪器比不上 strace, ltrace,
truss。你得到的是一套整合的很好的低能的程序。如果你对调试器的功能不满意,你只好换用另外一套IDE,但是这套 IDE
的热键,菜单,编辑器功能,按钮...... 跟原来那个有很大不同。你不得不花很多时间来熟悉新的环境,而不能保持原来的某些东西。
而
在 UNIX 下就不一样了。你可以用你最喜欢的 VIM 编辑程序,你在 VIM 里可以调用 GNU make,make 可以调用 gcc,
ld, ... 实际上 make 能帮你很多忙。make的出错信息可以被 VIM 捕获, VIM 能帮你在源程序里定位。你如果喜欢 icc,
你可以让 make 用 icc 而不是 gcc。你如果觉得 gdb 跟踪变量时比较麻烦,你可以用 ddd
来显示各种数据结构之间的关系。你还可以在 Emacs 里调用 gdb,那样就可以同步显示源代码了。而且 VIM 和 Emacs
还可以编辑很多其它东西,比如信件,LaTeX 文档,HTML,配置文件......
你不用另外找一个什么编辑器来干这些杂活了。很多程序比如 Mutt, tin 都可以在内部使用 VIM,这样就更方便了。
释放内存
我
在 Windows 下做过的一件最傻的事情莫过于"释放内存"了。有一天我看到一个 Windows
程序说:"这个程序可以帮你把大量内存释放出来给一个很大的程序用。"我试了一下,居然一下把我的 64M 内存释放出来
48M!我高兴极了。现在想一想,那是多么傻的事情,那么多的内存留着干什么?不用白不用啊!一操作系统,居然还需要别人写的程序来释放内存,那是什么样
的操作系统?
在 Linux 下用 free 命令,你会发现你的内存几乎每时每刻都快要被用完。那是因为 Linux
把大部分内存用来作为磁盘缓冲了。Linux 有比 Windows 先进的磁盘缓冲技术。你有没有发现你往硬盘写数据的时候,很快就完成了?那是因为
Linux在内存里有很多磁盘缓冲区,你要写到硬盘上的数据先被写到了这些内存里,然后 Linux 就告诉你"拷贝完成"
,当你马上又想删除刚才写入的某些数据时,Linux 只是把数据从内存里移除,然后报告" 删除完成"。在一定的间隔时间后,Linux
才把数据写回硬盘,这样不但高效,避免了多次硬盘操作,而且减少了文件的不连续,也就是减少了"碎片"。Windows
当然也有磁盘缓冲,但是由于它内存管理的低效率,它不敢把大量内存都用来作为磁盘缓冲,因为它没有能力在用的时候随时把内存收回来。
# Linux 能干的高级的事情 Windows 都干不了
当
然有很多事情是Linux/UNIX的专利了。因为 Windows 只能装在 PC 机上,好像以前也有 Alpha 可以使用 Windows
NT,但是就是没见到有人用。PC 机的能力是很低的,像我们编程序处理 NP-Hard 问题的人,用 Windows
的机器显然速度不够,而且有时一个问题算上几天甚至几个星期,Windows 机器是以"死机"著称的,我们怎么能放心?
所以几乎所有科学计算程序,EDA 程序,高性能图像处理程序都不是 Windows 的。他们有时也会移植一些给 Windows,但是常常降低那些程序的能力。你比较过Windows 版本的 Mathematica 和 Linux 的有什么区别吗?
IBM 制造的最大的并行计算机有 8000 多个处理器,Windows 不可能有能力管理这么多处理器,它用的是什么操作系统?答案是 Linux。
《泰坦尼克号》电影里的三维动画,那么细腻逼真,Windows机器能做出来吗?不行。那也是 Linux 机器做的。
民航总局用来训练地情人员的虚拟现实训练设备,Windows 当然无能为力。那都是商业的 IRIX 机器。
UNIX
是最早支持 TCP/IP 网络协议的系统。它上面有很多可以互相协作的网络服务程序,它们经过多年的使用和修订,已经达到比较完善的程度。而就在
1997年,微软的比尔盖茨还在扬言:"Internet 是没有前途的。"
微软的这个"远见卓识"大家应该都已见识,它后来加上的网络服务程序IIS 漏洞之多,让公安部都频频发出警报,大家也是见识了的。
其实你知道了,Windows 没有一样有用的事情能比 UNIX 干的更好。
# Linux 干不了的有用的事情 Windows 照样干不了
当然 Linux 不是万能的。它也有不能干的事情,电脑也有干不了的事情。但是Linux 干不了的事情,Windows 肯定也干不了。这些事情就是我们需要探索,需要努力的事情了。在你探索的过程中,Linux 必定是你的好伙伴。
# UNIX 的真谛何在?
让聪明人干任何他们想干的事情
UNIX 的一个特点就是非常高的灵活性,Xwindow 也具有这种灵活性。这种灵活性体现在哪里呢?
UNIX
的程序一般都有很多参数,不管你现在用的着用不着,总有人需要某些参数。它们的行为很多都可以用配置文件来改变。比如 GNU bash,
通常缺省的命令行输入方式是 Emacs 方式,但是只要我编辑一个 .inputrc 文件,就可以把它变成vi
的输入方式,而且我还可以自己绑定键序列到某些操作。我可以用 shopt
来设置它的很多特点,比如是否进行通配符扩展,是否可以把一个变量当作一个目录来cd,是否可以自动纠正某些明显的目录名打字错误 ......
UNIX 程序设计的思想是提供给用户"机制",而不限制用户制定"政策"。这是一个重要的尊重用户的作法。
我
们再来看看 Xwindow。Xwindow
是一个出色的设计,它把显示服务器和客户程序分开。一个显示上既可以显示本机上的程序,也可以显示别的机器上的 X
程序,而它们都遵守你的窗口管理器的统一指挥,它们之间可以方便的传送剪贴版数据,各种事件 ...... 比如有时我的 XFree86
上会出现四个不同机器上的 XTerm,两个不同机器上的 GVIM,...... 它们统一受本机上的 FVWM 指挥。
Xwindow
程序都具有很多很多命令行参数和 resource 参数。你可以随意的在命令行或者 .Xdefaults
文件设置所有的颜色,字体,尺寸...... 而且如果你用 xrdb把 .Xdefaults
导入到根窗口,那么其它机器上没有经过配置的同样的程序,显示到你的机器上的时候也会遵守同样的外观规定。
Xwindow 的窗口具有
Property, 也就是一些可以自己定义的共享数据(原子)。正是因为这些 Property 的存在,使得 Xwindow
具有无比强大的生命力。X 的窗口管理器和其它客户程序之间并没有统一的协议,但是后来出现了 ICCCM(客户程序间通信规范),这个规范就是通过
property 定义的。现在又有人定义了一套"扩展的窗口协议(EWM Hints)",使得 Xwindow 可以具有某些 Windows
的特征,比如一个工具条程序可以告诉窗口管理器:"这个屏幕下面被我占据了24个像素的空间,你最大化程序的时候不要越过这个界线。"
一个强大的窗口管理程序比如 FVWM,它收到这样的提示时,可以答应工具条程序的这个要求,也可以不答应。一切选择的权力在于谁?当然是用户了!一切窗口乖乖听话,FVWM 给予户最大的尊重。
你
想想,是不是有些 Windows 程序常常弹出一个窗口要你选择 "Yes or
No"?你不点击它它就不下去。你觉不觉得你的程序在侵犯你的尊严?你是一个人!还有就是很多 Windows
程序把人当成傻瓜,而它是"智能程序"。比如,有一个程序就是喜欢把你的每句话第一个字母都变成大写,我不说它是谁了,你遇到的时候就知道了。如果连"一
句话开头一个字母要大写"这么明显的问题都需要程序帮你纠正的话,人脑还用来干什么?况且如果你故意想要不大写的话,那就更麻烦了,我楞是没有从它那一大
堆菜单里找到怎么关闭这个愚蠢的选项。
# 只有符号才能完全操纵计算机
我
们来说说很多初学 Linux 的用户。虽然他们在用 Linux,但是他们打心眼儿里是觉得 Windows 的工作方式好,他们希望 Linux
有一天能"像Windows那样"。你说:" 我鼠标一点,我菜单一拉,...... 就可以完成我的操作。" 但是我要告诉你:"Linux
从来没有摹仿 Windows,将来也不会。 Linux 从诞生之日起,它的工作方式就比 Windows 的先进。Linux
属于能勇敢面对符号的人。只有符号才能完全操纵计算机。"
看看优秀的 UNIX 程序,XFree86, FVWM, VIM,
Emacs, proftpd, Mutt, wget,tin, ...
没有一个不是用配置文件来设置选项的。为什么这些程序没有方便的菜单可以用来配置?难道它们的设计者就那么低能,连个图形配置界面也写不出来?
当
然不是。因为图形界面配置方式的能力是极其有限的,而配置文件和程序语言的表达能力却是无限的。用图形界面配置这些程序的话,如果你想达到配置文件的效
果,你需要成百上千的菜单,checkbox, radio button, ...
到时候你根本没办法找到你需要修改的地方了!而各个程序的配置文件的语法都有很多相似之处,一般就是一些命令,设置一些变量,参数,......
一旦用会了一个,其它的也就容易理解了。如果你用惯了 awk, sed, Perl,你会觉得那才是真正的自动化啊。
鼠标虽然是很好的工具,但是它的表达能力是有限的。你不可能光用鼠标就让电脑完全明白你的意思,它毕竟只有3个按钮。看看我的MetaPost页你就能体会到鼠标的这一弱点。所以我们虽然很喜欢鼠标,但是却不能完全依赖它。
# 各个小程序的完美配合
这就是UNIX最重要的特点了,它就是UNIX设计的思想。让每个程序只具有一项专门的能力,然后让它们合作。Xwindow也继承了这种好传统。
这
恐怕就是Windows和其它操作系统望尘莫及的地方了。UNIX 程序设计之统一,配合之完美,真使我难以置信!shell, grep,
find, awk, sed, make, Perl,Emacs, vi, tin, Mutt, ...
它们是那么的具有一致性!你一旦学会了 sed 的正则表达式,其它程序基本上都能用了。你一旦学会了 vi 和 VIM,
你会发现它的操作是那么的有规律性,似乎vi的设计者在几十年前就已经设计好了 VIM 在今天的完美而统一的操作方式!而且vi的操作还体现在
Mutt, tin 等很多程序中。你甚至可以把 bash 设置为 vi
的输入方式来输入命令行,我就是这么做的。一个程序可以调用另外一个程序来得到数据,可以把数据交给它处理后返回来,可以在自己的窗口里"嵌入"另外一个
程序。
在 Windows 和其它非 UNIX 操作系统中,这种合作是非常困难的。我曾经在Windows 下使用
Perl来进行一些自动工作。但是 Windows 的文件操作,管道是如此的不稳定,程序之间基本不能合作。你别想在 Visual Studio
窗口里面嵌入UltraEdit 编辑器,你别想用一个 expect 脚本来控制 telnet 到水木清华BBS,这就是为什么
helloooo 诞生在 Linux 而不是 Windows。我曾经试图从Windows + Exceed + SecureCRT ssh
登录到 Sun 机器,然后通过 ssh 的隧道(X11 tunnel)把 X 程序传到 Exceed
上运行,但是搞了两天都没有成功!而在Linux 下这个事情根本就是不用怎么配置的,OpenSSH 和 XFree86
本来就是完美结合,只要打开 ssh 的 "forward X11" 选项就什么都搞定了。
Windows
的程序都是大而全,大而杂,所有的电子邮件程序都需要自己提供编辑器,自己发送和收取邮件,自己显示邮件的附件。每一个BBS程序都提供自己的
Virtual Terminal, 自己的通讯代码。每一个 IDE
都自己提供编辑器,编译器,汇编器,调试器。人们为了使用一种新的程序,需要适应所有这些它提供的界面,而不能使用自己喜欢的编辑器的键绑定,菜单组
织...... 不能 DIY!
你要知道,最高级的电脑是定做的,自己想要什么什么CPU,什么主板,多少内存,什么硬盘,键盘,鼠标,
显示器都是自己选择的。最高级的滑板,自己想要什么牌子的版面,什么牌子的沙,什么桥,什么轮子,什么轴承,也都是自己选的。最高级的乒乓球拍,木板,胶
皮,海绵,胶水都是可以自己选择...... 而用Windows
程序,你得到的是大杂烩,就像你去买"品牌机",只有那么几种配置,而且附带很多你不需要的软件和服务;就像你去买组装好的滑板,你想要大一点的轮子和窄
一点的板子,但是你没有这种选择余地!Windo ws
程序就相当于最廉价,最次的滑板。但是它却会花你更多的钱,因为一旦一个部件坏了,或者你不喜欢了,你不能另外找一个好的换掉它,你必需重新买全套配件!
而
UNIX 和 Xwindow 就是高档的"组装货"。比如我用 Mutt 的时候,我可以用VIM 也可以用 pico 来编辑邮件,我可以用
ImageMagick 也可以用 xv 来显示附件里的图片,我可以用 lynx 把 HTML 附件转成文本嵌入窗口中,我也可以把HTML
附件交给 Mozilla 图形显示。我可以让 GnuPG 帮我把邮件进行数字签名和加密,我也可以用其它 PGP 程序。我想让 Postfix
而不是 sendmail 帮我发出邮件,我想让 fetchmail
帮我收邮件,转发给 postfix,然后被我自己写的Perl过滤器处理......
这一切我都可以办到!我可以选择我最喜欢的专门的程序来完成专门的工作,然后把它们结合在一起,我也可以分别得到它们的好处。
|
# 结论
我
写这么多的目的是什么?我希望喜欢 Linux 的朋友,完全清除微软和Windows
灌输在你脑子里的谬论,别再相信它们所谓的"新技术",别再追赶Windows,因为追赶 Windows
=倒退。马克思有一个思想很重要,"新生事物并不一定是在最近出现的。" UNIX,Xwindow, TeX 虽然都比 Windows
先出现,但是它们才是先进生产力的代表。我们要清楚的认识到什么才是真正的现代化,什么才是真正的自动化。
勇敢的拿起像 bash,
FVWM, VIM, Emacs, Mutt, lftp ...... 这样强大的程序,不要再埋怨"Linux 为什么不能像 Windows
那样",不要再浪费时间试用这样那样的程序,不要再忙着升级。是你需要改变而不是 Linux 和 UNIX,Linux
现在就可以成为你的好朋友。你需要认识它,了解它,信任它,才能完全的靠它来高效的工作,省出时间来处理世界上更加值得处理的事情。
来自:http://inus.bokee.com/6300579.html
|
以前用硬盘安装了redhat9.0,fedora,debian,freebsd等,但是一直没有写相关文章,但是用了想关操作系统,看见www.chinaunix.net网站novll公司的suse安装居然是最多的,不由的产生安装suse,于是中午按照以前安装其它操作系统的步骤,在网上搜索相关资料,其实,我感觉差不多,只是想看一下他的注意事项,这是重要的,一个去安装一个新操作系统哈
这是SUSE 10.1下载的地址
http://download.chinaunix.net/download/0013000/12275.shtml
Suse 安装注意事项:我自已根据安装和网上的朋友总结的,有错误希望大家提出:
1):不支持iso文件安装,提示找不到安装文件,我用的是fat32分区
解决方法: 把iso文件解压在任何分区
2)安装程序兼容性差
解决方法:不管光盘启动还是硬盘启动,到检测usb设备死机,换用安全安装模式启动成功
3)关于黑屏
1:解决方法:GRUB引导命令后面加上一个VGA=791就好了,这样进去屏幕分辩率就是1024*768
引导命令应为:
kernel (hd0,0)/linux root=/dev/ram ramdisk_size=65536 devfs=mount,all vga=791
initrd (hd0,0)/initrd
boot
2:Suse安装启动黑屏的解决办法 之二
黑屏后按Ctrl Alt F2进入另一个控制台,运行yast,选择hardware-Graphics and Monitor(可能是这样,反正是显示设置),里面有两个选项,第一个是text模式,第二个是图形模式,还有change和reprobe选项,但change选项是用不了的(如果你能用就最好不过了。直接更改属性,把分辨率调低点,accept,退出重启就行了),这时候先切换成为text模式,退出重启;重启后应该还是用不了的,再次按Ctrl Alt F2进入控制台,运行yast,此时再在上述的选项处进行change就OK了
3:Suse安装启动黑屏的解决办法 之三
安装启动黑屏的解决办法 之三
黑屏后按 CRTL ALT ---(小键盘上的减号)试试。应该能进入一个可以移动的虚拟的屏幕,在里面进行设置,选择正确的显卡,把显示器的相关设置调低些,应该没问题了。
注意了上面几点现在就可以开始安装了:
4)首先在http://grub.linuxeden.com/wakka.php把grub下载解压在c:
针对NTLDR的GRUB,
它能够从Windows NT/2000/XP的引导菜单引导进入GRUB。
复制GRLDR 到Windows NT/2000/XP的C:根目录,并且在 C:\BOOT.INI
文件中加入如下一行:
C:\GRLDR="Start GRUB"
详细在请看grub下载的包READMEen.txt,如果是windows2003好像不能启动,但是有时能启动,不能启动就能光驱/U启动,然后进行grub目录运行grub.exe,这是可以的
5) 输入kernel (hdx,y)/suse/cd1/boot/i386/loader/linux vga=791 回车
输入initrd (hdx,y)/suse/cd1/boot/i386/loader/initrd回车
输入boot
X,代表第几硬盘,y代表分区
然后就开始安装了它会自动搜索相关目录到分区那儿我还犹豫了一会儿,主要是怕把我的windows,solaris格了,看了一些说明文档,发现和fedora一样的。我一般划分是
/boot swap / 我的目的主要是学习用哈,所以不严格这就不用说了哈
安装完第一张盘它自动重启,启动时选择suse linux 10继续安装,配置suse操作系统
具体设置就是dhcp,firewall,ip地址,ssh,和相关设备的检查
6)当我安装完后,
发现solaris启动不见了,于是进入suse把/boot/grub/menu.lst
发现solaris启动不见了,于是进入suse把/boot/grub/menu.lst
solaris启动不见了,于是进入suse把/boot/grub/menu.lst
添加titile solaris
Root (hd0,1)
Chainloader 1
重启一切可以
然后发现不能域名解析在/etc/resolve.conf
添加nameserver 192.168.0.3
一切完成,现在用起了suse 10了 呵呵
|
|
来自:http://www.itbbs.cn/showthread.php?t=5314
1 开yast,添加安装源
2 如果有add on CD可以点添加,点本地iso,找到iso
3
添加http源,服务器添packman.iu-bremen.de,目录添suse/10.1,确定。中途可能会有警告,选择是就可以了
4
添加ftp源,服务器添ftp.gwdg.de,目录添pub/linux/misc/suser-guru/rpm/10.1,确定。
5
添加http源,服务器添download.opensuse.org,目录添distribution/SL-10.1/inst-source,确定。
6
添加http源,服务器添download.opensuse.org,目录添distribution/SL-10.1/non-oss-inst-source,确定。
3、4、5、6几步以及最后的确定可能需要等待较长时间,请耐心等待。
挖卡卡 ,可以更新kchmviewer,eclipse,tomcat,jboss等等了 :)
由于时间关系,以上的安装源不保证都可以成功添加。
关于更多安装源,清参考
http://www.opensuse.org.cn/index.php/安装源列表
特别说明:
关于对suse 10.1里添加源以后漫长等待的解决办法如下:
1 添加任意一个更新源(例如
http://ftp.jaist.ac.jp/pub/Linux/SuSE/suse/update/10.1/
,可在
http://www.novell.com/products/susel...t_mirrors.html
选择最快的源),确定.此刻是漫长的等待.
2 添加好以后,yast-系统更新.
3 更新以后再添加源就快了.
来自:http://blog.sina.com.cn/u/491529d60100061i
安装之前要准备的工作:
1。安装Lame。Lame是开源MP3解码器。
version:3.97
download:
http://lame.sourceforge.net/download/download.html
安装:解压安装下来的包放在tmp,配置,安装。
注:我是用ROOT登录的。所以只在ROOT的环境下安装。
[root@localhost lame-3.97]#./configure --prefix=/usr
[root@localhost lame-3.97]#make
[root@localhost lame-3.97]#make install
Note: If you install Lame without --prefix=/usr MPlayer may not
properly link to the Lame libraries.
2.安装XviD,XviD是ISO MPEG-4 vedio编码器
version:1.1.2
download:
http://www.xvid.org/downloads.html
[root@localhost tmp]#cd xvidcore-1.1.2/build/generic/
[root@localhost generic]#./configure
[root@localhost generic]#make
[root@localhost generic]#make install
3.安装RealPlayer。Download RealPlayer 10.0 GOLD:
http://www.real.com/linux/
Select: "Download RPM Package"
首先要Check for HelixPlayer:
[root@localhost ]# rpm -q HelixPlayer
HelixPlayer-1.0.6-1.2.2
卸载HelixPlayer:
[root@localhost ]# rpm -e HelixPlayer
Install RealPlayer 10 GOLD:
[root@localhost]# rpm -ivh RealPlayer10GOLD.rpm
Preparing... ###########################################
[100%]
1:RealPlayer ###########################################
[100%]
4。LIVE555 Streaming Support
download:
http://www.live555.com/liveMedia/public/
解压到tmp文件夹下面:
[root@localhost live]#./genMakefiles linux
[root@localhost live]#make
[root@localhost live]#make install
前面的准备工作完成后,开始安装MPlayer了
首先下载下面四个文件:
下载相关codes (
http://www.mplayerhq.hu/MPlayer/ )
主要都在这里
Mplayer-1.0rc1.tar.bz2(主程序)(
http://www.mplayerhq.hu/MPlayer/rele...1.0rc1.tar.bz2
)
Blue-1.6.tar.bz2 (皮肤) (
http://www2.mplayerhq.hu/MPlayer/skins/Blue-1.6.tar.bz2)
all-20060611.tar.bz2(
http://www.mplayerhq.hu/MPlayer/rele...060611.tar.bz2
)
windows-all-20060611.zip(建议不要在win下使用. rar,用. zip)
(
http://www.mplayerhq.hu/MPlayer/rele...l-20060611.zip
)
这是我的mplayer的一些组件,你可以去
http://www.mplayerhq.hu/MPlayer/
下载你自己喜欢的皮肤和字体.
安装过程(请把你的终端打开)
a.安装相应的解码
进入主目录后,以root身份安装 ,这样改变身份:在终端输入su或者su root
,然后输入密码就ok啦,有没有看到 $ 变成了 #
接着note: All of MPlayer's codecs codecs must be installed in
/usr/local/lib/codecs/
[root@localhost tmp]#tar jxvf all-20060611.tar.bz2
[root@localhost tmp]#mkdir /usr/local/lib/codecs/
[root@localhost tmp]#mkdir /usr/local/lib/wincodecs/
[root@localhost tmp]#mv -f all-20060611/*
/usr/local/lib/codecs/
[root@localhost tmp]#mv -f windows-all-20060611/*
/usr/local/lib/wincodecs/
因为win32 codecs were placed in
/usr/lib/win32.所以要连接起来。
[root@localhost tmp]#ln -s /usr/lib/win32
/usr/local/lib/codecs
b.安装mplayer
[root@localhost tmp]#tar jxvf MPlayer-1.0rc1.tar.bz2
[root@localhost tmp]#cd Mplayer-1.0rc1
[root@localhost tmp]#./configure --enable-gui --enable-largefiles
\
--enable-menu --prefix=/usr –confdir=/etc/mplayer
[root@localhost tmp]#make
[root@localhost tmp]#make install
c。安装字体:
in FC5: xorg-x11-fonts-truetype. You need
http://www.mjmwired.net/resources/mj...a-fc5.html#ttf
package for the last option below
[root@localhost tmp]# mkdir ~/.mplayer/
[root@localhost tmp]# ln -s /usr/share/X11/fonts/TTF/luxisri.ttf
~/.mplayer/subfont.ttf
d。设置皮肤
You only need one skin in a directory named default in the MPlayer
Skins directory (/usr/share/mplayer/skins/).
[root@localhost tmp]# bzip2 -cd Blue-1.6.tar.bz2 | tar xvf - -C
/usr/share/mplayer/skins/
[root@localhost tmp]# mv /usr/share/mplayer/skins/Blue/
/usr/share/mplayer/skins/default/
设置默认的 skin (I picked 'Blue'):
[root@localhost tmp]# cd /usr/share/mplayer/skins/
[root@localhost Skin]# ln -s Blue default
e。卸载
[root@localhost Mplayer-1.0rc1 ]#make uninstall
问题汇集:
New face failed. Maybe the font pdth is wrong. Please supply the
text font file(~/.mplayer/subfont.ttf).
打开MPlayer->preferences->Font.在Font点击Browse,选择/usr/share/X11/fonts/TTF/luxisri.ttf
问题解决。
来自:http://blog.sina.com.cn/u/491529d60100060r
Packman
Packman offers various additional packages for SUSE Linux. Please
use a mirror if possible:
Type - rpm-md/repomd
protocol - HTTP
server name - packman.iu-bremen.de
Directories - suse/10.0
suse/10.1
suse/10.2
Guru
Guru's RPM site contains packages optimized for i686 and
x86_64
Type - rpm-md/repomd
protocol - HTTP
- FTP
server name - ftp.gwdg.de
Directories - pub/linux/misc/suser-guru/rpm/8.2
- pub/linux/misc/suser-guru/rpm/9.0
- pub/linux/misc/suser-guru/rpm/9.1
- pub/linux/misc/suser-guru/rpm/9.2
- pub/linux/misc/suser-guru/rpm/9.3
- pub/linux/misc/suser-guru/rpm/10.0
- pub/linux/misc/suser-guru/rpm/10.1
- pub/linux/misc/suser-guru/rpm/10.2
suser-jengelh
Various packages from the suser-jengelh repository
Type - rpm-md/repomd
Protocol - HTTP
- FTP
- rsync
Server name - ftp-1.gwdg.de
Directory - /pub/linux/misc/suser-jengelh/SUSE-10.2/
/pub/linux/misc/suser-jengelh/SUSE-10.1/
/pub/linux/misc/suser-jengelh/SUSE-10.0/
/pub/linux/misc/suser-jengelh/SUSE-9.3/
Schiele
More packages for various SUSE releases by Robert Schiele can be
found here. Some of them are new packages, some of them are just
updated packages from the original SUSE ones, and some just fix
bugs when SUSE does not provide these bug fixes.
protocol - HTTP
server name - pi3.informatik.uni-mannheim.de
Directories - ~schiele/suse/9.0
- ~schiele/suse/9.1
- ~schiele/suse/9.2
- ~schiele/suse/9.3
- ~schiele/suse/10.0
- ~schiele/suse/10.1
- ~schiele/suse/10.2
Scorot
Scorot is another repository with many packages.
protocol - HTTP
- FTP
server name - ftp.gwdg.de
Directories - pub/linux/misc/suser-scorot/suse90
- pub/linux/misc/suser-scorot/suse91
- pub/linux/misc/suser-scorot/suse92
- pub/linux/misc/suser-scorot/suse93
- pub/linux/misc/suser-scorot/suse100
- pub/linux/misc/suser-scorot/suse101
Wesnoth
Current builds of Battle for Wesnoth packaged by Holger Hetterich
are available for download at the OpenSUSE Build Service
Repositories.
Fernández
Víctor Fernández's SUSE repository contains different packages,
mainly (but not only) related to KDE.
protocol - HTTP
server name -
www.polinux.upv.es
Directories - ~vfernandez/suse/9.1
- ~vfernandez/suse/9.2
- ~vfernandez/suse/9.3
- ~vfernandez/suse/10.0
- ~vfernandez/suse/10.1
SUPER
The SUSE Performance Enhanced repository by the openSUSE SUPER and
Agirardet project with SUPER packages and the CK kernel.
protocol - HTTP
server name - opensuse.linux.co.nz
Directories - apt/suser-agirardet/10.0
usr local bin
The usr-local-bin project created by James Ogley contains mainly
GNOME packages, but also other packages, and has been in existence
since SUSE 7.3. Packages for SUSE versions before 10.0 are
available from the Web site. Some packages now available optimized
for either i686 or i586. ( 060512: no 64-bit rpms )
protocol - FTP
server name - ftp.gwdg.de
Directories - pub/linux/usr-local-bin/10.0
- pub/linux/usr-local-bin/10.1
suser-oc2pus
ftp://ftp.gwdg.de/linux/misc/suser-oc2pus/
Various Packages since Suse 8.2.(060512: no 64-bit rpms)
protocol - FTP
server name - ftp.gwdg.de
Directories - linux/misc/suser-oc2pus/10.0/
linux/misc/suser-oc2pus/10.1/
GnuCash
GnuCash and Taxbird on SUSE (i686 and partially x86_64) Additional
requirements are in packman now!
protocol - FTP/HTTP
server name - ftp.gwdg.de
Directories - linux/misc/suser-crauch/10.0/
linux/misc/suser-crauch/10.1/
protocol - FTP
server name - ftp.rauchs-home.de
Directories - suse/10.0/
suse/10.1/
suser-liviudm
Various packages by Liviu Damian
protocol - FTP
- HTTP
server name - ftp.gwdg.de
Directories - pub/linux/misc/suser-liviudm/10.0
suser-scrute
ftp://ftp.gwdg.de/pub/linux/misc/suser-scrute
MythTV packages (and a couple of dependancies) ported to SuSE by
Simon Crute from the ATrpms mythTV rpms. The myth RPMs them
selves.
protocol - ftp
server name - ftp.gwdg.de (this is a mirror)
Directories - pub/linux/misc/suser-scrute/suse10
Packman for PPC
Packman for PPC contains part of the Packman packages recompiled
for PPC on a Pegasos machine.
protocol - FTP
server name - spike.fa.gau.hu
Directories - pub/pmppc100/
pub/pmppc101/
JackLab
JackLab ProAudio software and audio realtime kernel for musicans
and mediaproducer. Website
protocol - FTP
- HTTP
server name - ftp.gwdg.de
Directories - pub/linux/misc/jacklab/SUSE-9.2
- pub/linux/misc/jacklab/SUSE-9.3
- pub/linux/misc/jacklab/SUSE-10.0
- pub/linux/misc/jacklab/SUSE-10.1
Funktronics
Funktronics Freevo home theatre platform and a number of
development packages, mostly for Python and Perl. Apt repositories
going back to SUSE 8.0 are also available.
protocol - FTP
server name - ftp.funktronics.ca
Directories - pub/rpm/SuSE-10.0/
JArpack
JArpack contains mainly GNOME packages.
protocol - HTTP
server name - jarpack.com
Directories - /suse/10.0/
/suse/10.1/
LAB-Project
ftp://srv14.lab-project.net/suse/10.1/
maintains latest PHP builds and many PECL extensions.
protocol - FTP
server name - srv14.lab-project.net/
Directories - /suse/10.1/
ATI Video drivers
http://www2.ati.com/suse repositories for
drivers of ATI video cards. Note that this repository is not
browsable with a web browser.
Protocol - HTTP
Server Name - www2.ati.com
Directories - /suse
Packages to install:
ati-fglrx-kmp-<kernelflavour>
(replace kernelflavour by default,smp, or bigsmp.)
Please see the ATI Install HOWTO.
nVidia drivers
Repository for drivers of nVidia video cards, Please see the NVIDIA
HOWTO.
Protocol - HTTP
Server Name - download.nvidia.com
Directory - /novell
Alternate Compiz Packages
openSUSE Build Service Repository for compiz and related packages
from the development by community at
www.compiz.net forums. please see the SUSE
thread at the forum.
Type - rpm-md/repomd
Protocol - HTTP
Server Name - software.opensuse.org
Directory - /download/Compiz-Quinn/SUSE_Linux_10.1/
Beryl and the up-to-date Compiz Packages
openSUSE Build Service Repository for Beryl, a friendly fork of
compiz by a community at
http://forum.beryl-project.org please see the
SUSE thread at the forum.
For SUSE Linux 10.1 and SLED 10:
Type - rpm-md/repomd
Protocol - HTTP
Server Name - software.opensuse.org
Directory - /download/X11:/XGL/SUSE_Linux_10.1
For SUSE Linux 10.1/SLED 10 users using xorg 7.x:
Type - rpm-md/repomd
Protocol - HTTP
Server Name - software.opensuse.org
Directory - /download/X11:/XGL/XOrg7_SUSE_Linux_10.1/
For openSUSE 10.2 or the Factory tree:
Type - rpm-md/repomd
Protocol - HTTP
Server Name - software.opensuse.org
Directory - /download/X11:/XGL/SUSE_Factory
来自:http://blog.sina.com.cn/u/491529d60100061d
安装完SLED
10后发现仍然有“热启动网络不通”的问题,原因是内核版本较低,于是升级到2.6.17版内核,成功解决此问题。为了造福广大菜鸟,分享一下我的经验,欢迎高手批评补充。
1。将下载的新内核(比如linux-2.6.17.tar.bz2)拷贝到 /usr/src,
然后在/usr/src本地解压,生成新目录linux-2.6.17;
2.#cd linux-2.6.17; 编辑Makefile 找到EXTRAVERSION:
EXTRAVERSION = -xhawk(你自己给新内核取的名字) (注意前面的“-”
符号)
3。拷贝/boot/下的1个config文件到/usr/src/linux-2.6.17/(解压的新内核目录),更名为.config。
4。#make clean && make mrproper
5. #make xconfig
6. load 刚拷贝过来的/usr/src/linux-2.6.17/.config;
7. 在"Processor type and features" 栏目,选择自己的CPU类型,我的CPU
是Athlon64 3000+,但我想用32位的SUSE
Linux,这里仍然选择Athlon64;选择Preemptible Kernel(Low-Latency
Desktop); Time Frequency 选择1000Hz;
8。在Networking 栏目,去掉IPv6 Protocol;save;退出;
9.编辑 .config file;找到:CONFIG_BLK_DEV_RAM_SIZE 把值改为
128000;
10。在命令行执行 #export CHOST="i686-pc-linux-gnu"
11。#export CFLAGS="-march=athlon64 -O2 -pipe -funroll-all-loops
-funit-at-a-time -fpeel-loops -ftracer -funswitch-loops
-fomit-frame-pointer -fweb -msse3"
说明:如果CPU 是新版的Athlon64("Venice" or "San
Diego")/Athlon64-X2("Manchester" or
"Toledo"),加上-msse3,以支持SSE3 功能;
12.#export CXXFLAGS="${CFLAGS}"
13.#export MAKEOPTS="-j6"
说明:MAKEOPTS= will set number of concurrent threads. 我有 1GB
内存 所以我的
MAKEOPTS=”-j6”,如果内存小,选MAKEOPTS="-j2"。
------------------------------
***对于其它CPU的参数,请参考:
http://gentoo-wiki.com/CFLAGS
http://gentoo-wiki.com/Safe_Cflags#Intel_Processors
------------------------------
14。开始编译:
#make bzImage
#make modules
#make modules_install
15.#make install 自动copy新内核到/boot,自动修改Grub.
(不用再mkinitrd)
16.启用新内核(这一步似乎可以不做,因为我忘记做这一步,仍然成功启动到新内核):
#rm /boot/vmlinuz
#rm /boot/initrd
#ln -s vmlinuz-2.6.17-xhawk-default vmlinuz
(注意新生成的内核的名称,在/boot 下查一下)
#ln -s initrd-2.6.17-xhawk-default initrd
17。重起计算机,用#dmesg命令查看启动信息,第一行就是当前内核版本。或者用命令
#uname -r
18.如果内核去掉了IPv6, 最好修改一下
/etc/sysconfig/SuSEfirewall2,
把 FW_IPv6="" 改为
FW_IPv6="no"
然后修改 /etc/modprobe.conf
将alias net-pf-10 ipv6 修改为 alias net-pf-10 off
添加 alias ipv6 off
内核网址:
http://www.kernel.org/
来自:http://blog.sina.com.cn/u/491529d60100061h
http://ftp.gwdg.de/pub/linux/misc/suser-guru/rpm/10.0/
RPM资源很多,如果你想装什么或者发现自己缺什么,到http://rpm.pbone.net/搜索下就好
添加方法:YaST-安装源-添加。前面已经说过,所有这些源都在国外,你添加后全部打开是不理智的,速度慢而且成功率低。应该用哪个开那个。
图例,all sizes放大:
http://www.flickr.com/photos/78377921@N00/64230114/
----源安装:
优点:可以较好处理依赖性问题。
缺点:过于依赖网络条件,安装大软件成功率低。
d4x:
d4x是Linux下著名的下载软件,类似Win下Flashget。
安装方法:在安装源里面添加打开guru(其实你开那个Supplementary GNOME
2.12也行,就是安装完了以后d4x软件版本低一些);
YaST-软件管理-搜索d4x-钩选安装
kchmviewer/kchm:
都是看chm文件用的。简单说区别前者是开个新窗口开,后者是Konqueror直接打开。
kchmviewer:添加并打开Supplementary KDE
3.4的源,YaST-软件管理-搜索kchmviewer,钩选安装。
kchm:添加并打开guru的源,YaST-软件管理-搜索kchm,钩选安装。
kchmviewer安装图示,all sizes放大:
http://www.flickr.com/photos/78377921@N00/64230118/
amarok的安装设置美化(64位专用,解决放Mp3问题):
系统安装KDE标准系统时自带amaroK播放器,默认Helix
Real引擎,无法识别播放中文名称的Mp3,如果换Xine引擎又没有声音。
把packman添入源,打开安装盘的源,确定Supplementary
KDE源没开。搜索确定有以下包,没有就安装,如果packman上版本高就升级:
kmultimedia3
lame(在packman)
faad2
amarok
amarok-xine
libxine1(在packman)
lame
mad(升级到packman)
当然你也可以去packman下x86_64目录分别下载这些包再手动安装,这样成功率高些。系统会自动删除源来的xine-lib,这正常,不用担心。
显示中文:安装好以后,开amaroK,设置-配置amaroK-常规-把“解码”下面两个都钩上,解码字符集根据你的爱好选“GBK”或者“UTF-8”。重启amaroK,
Enjoy.
效果图,all sizes 见大图:
http://www.flickr.com/photos/78377921@N00/64780220/
Mplayer安装设置(解决放电影问题):
Mplayer是Linux下面著名的播放器,安装时把Pack源打开,先安装更新以下包:
lame
toolame
w32codec-all
mad
faad2
(以下的几个包在suse10的安装盘里有)
DirectFB
libdvdread
lirc
libdv
先点下一步把这些包都装上(也可以把上述几个包从packman的x86_64目录下载,找不到的去i586目录找,w32codec-all那个包挺大的),然后再开YaST-软件管理,搜索mplayer(这个包在packman上,可以下载手动安装),安装。
注意一定分两步,Mplayer最后装,不要一起装。
如果你听从我的建议,kaffeine从安装系统以后一直没开,那现在kaffeine也支持一些avi/mpg文件播放了。
汉字字幕支持:Mplayer播放带中文字幕会出现乱码。解决:
a.打开preferences a.Subtitle&OSD里面:Encoding选cp936;
选中Unicode subtitle。
b.Font里面:font选择一个中文字体,例如~/.mplayer/simhei.ttf
;Encoding选Unicode; 用Text scale滑动条调整字幕字体的大小。
编译安装:
Linux最新最cool的软件一般是个人开发,不一定提供RPM包(依赖性问题),但大部分提供源码下载供你自己在机器上编译安装,一般来说下载到的都是压缩包。所以掌握编译方法是很重要的。64位下编译稍微麻烦一点,要加些参数,这里用两个QQ客户端作例子
EVA
就是可以当QQ用的一东西。编译软件需要devel包,不同的软件是不同的,EVA基于QT3,要在KDE运行,而编译使用gcc命令行,所以编译前需YaST安上qt3-devel,
kdebase3-deve,gcc,ccp,gcc-c++,libgcc几个包(有些GTK程序需要gtk2-devel,有些Java程序编译需要gcc-java,但我都没见过,回正题,这里不用)。
去
http://eva.sourceforge.net下载0.41EVA最新版,以前版本由于某公司对QQ的强制协议升级不能使用。
32位请google-eva linux,找到适合自己机器的版本。
64位:
在载来的bz2包上点右键,解压缩-在此解压缩,此时会出来一个eva目录,点进去,按f4调出终端窗口,下面的编译过程所有程序基本一样:
a-./configure --with-qt-dir=/usr/lib/qt3
--with-qt-includes=/usr/lib/qt3/include
--with-qt-libs=/usr/lib/qt3/lib64 --enable-libsuffix=64
--prefix=`kde-config --prefix`
b-make
c-输入su回车
等吧,看你机器的了。
d-make install
32位a步骤只要 ./configure --prefix=`kde-config --prefix`
就行
a步骤以后会出现提示意思说你可以安装了,如果没有则一定安装失败,看清提示说的问题在哪,先google再提问。
a步骤最后的那段--prefix=`kde-config
–prefix`不是编译任何程序都必须有,这里eva需要;但前面对于QT3程序那些是必要的,这是64位SuSE的特点,不然会一直说找不到qt3导致编译失败。
安装完成。
SuSE
Linux 10.0全程教学(带图,从零开始,常见问题解决)
本教学文档基于创作共用协议(Creative
Commons)发布,第一稿由Truth编写,在不断完善中,欢迎参与编写。
原来是写给64位用户的,在慢慢修改,变得通用:很多网址把里面的x86_64换成i386/i586/i686就适合32位的机器了。
原来是写给新手的,很多老手也问初级的问题,而且不屑于看这个帖子,所以改名。
本文纯粹是为了新手而写,而且64位系统比32位也有不少麻烦的地方。本文从刚安装SuSE
Linux 10.0
x86_64(KDE桌面系统)开始,分步介绍一些最基础的设置,解决最基本的问题。让机器实现最常用的功能,包括多媒体播放,网络应用,软件编译等等。
授人以渔更好一些,所以会讲怎样安装软件,举几个常用软件做例子,同时会解决64位系统一些常见问题(MP3/看电影/chm/自动更新被卡....)。
目标受众是新手,难免文字繁复,望见谅;水平有限,纰漏在所难免,望指正。
一、关于安装的一些废话
1、64位
2、安装建议
3、重要建议
二、安装后初步设置
1、桌面设置
2、网络设置
-小区宽带
3、更新
-在线更新(自动更新YOU, delta.rpm)
-系统更新(手动更新,源更新)
-系统重置
4、输入法设置
5、字体安装和设置
-字体安装
-字体设置
三、软件的安装和设置
1、YaST安装:
下载软件包安装
---星际译王(stardict)
---Opera安装设置美化
源安装:
----源在哪里?
----软件安装:
d4x(解决下载管理问题)
kchmviewer/chm(解决chm问题)
amarok安装和正确设置美化(解决mp3和汉字显示问题)
Mplayer安装(解决看电影/avi问题)
2、编译安装:
EVA
------------------------------------------Page
2---------------------------------------------------
LumaQQ2005
3、自解压bin文件安装:
Java Runtime Environment 1.5.0.6
四、硬件安装设置
显卡安装
1.Ati
蓝牙设置安装(Linux_Pro贡献)
五、其他设置
1、语言编码设置
2、Firefox扩展安装
TODO:
2.Nvidia(TODO)
ADSL设置(优先级:中)
无限网卡安装(优先级:低)
一、关于安装的一些废话
1、64位
64位是未来CPU的趋势,但现在不是主流(从趋势成为主流的时间是由厂商们的行销手段和钞票开销是否迅猛决定的)。所以你会发现刚装上的SuSE
Linux 10
64位标准系统并不能满足普通桌面运用的需要,会有一些小问题需要解决(比方说不能放MP3\AVI\CHM...),如果你就此放弃64位SuSE改用32位,甚至放弃Linux,我对此表示遗憾。Linux排斥懒人,不排斥普通人。
2、安装建议
Suse安装界面做得十分到位,基本上一路“下一步”就装好了,本文选择的桌面系统是KDE。个人建议新手从KDE开始熟悉Linux,如果有兴趣请尝试GNOME,但在同一个Linux发行版中,你会发现很多东西是相通的。
安装到网络设置这一步,如果你不想在线更新,可以启动以后再设置。如果你想设置好网卡,参照后文“网络设置”部分,完全一样。
在网络设置完成后,会出现是否YaST在线更新的提示。需要提醒的一点是,列出的更新服务器都在德国,网速慢,而且一个OpenOffice的更新需要
89M的下载,成功率极低,我的建议是,只钩选红色的更新;如果是夜深人静网速快的时候,你可以把除了OpenOffice外的红的蓝的全选上。至于
OpenOffice的更新,你大可以以后手动载几个delta.rpm装上。
3、重要建议
安装到最后一步,会出现一个文本框说感谢选择SuSE什么的,下面有个
选框-启动YaST。这里不要直接点完成,钩上框打开YaST(当初用SuSE就是因为YaST,当初用Linux就是因为SuperTux
:-))。
可以在这里改大部分系统设置,首要的是显卡设置。点左边
硬件-图形卡和监视器,会打开著名的SaX2配置界面,一定确保你的分辨率和显示器是正确的,如果不正确就改过来。
PS.如果你是ATi
X700(不管是不是移动版)的显卡,点显卡后面的选项按钮:点MonitorLayout输入NONE,LVDS,确定,这样避免你进入X-windows出现黑屏的问题。
改好点确定,此时尽量不要点测试,直接点保存,以免花屏。回到YaST,点左上角
文件-退出,这样可以大大减少启动黑屏现象的几率。别对那个灰色的3D加速选框耿耿于怀,显卡驱动可以以后装。
安装完成。
二、安装后的初步设置
1、桌面设置:
如果你的SuSE
10顺利安装完成并能够顺利启动到图形界面,恭喜你。Welcome to SuSE
10。
默认桌面,点图像上方all size按钮看大图:
http://www.flickr.com/photos/78377921@N00/64207469/
首先熟悉一下桌面,和Windows差不多,左下角有个类似开始菜单的K菜单,桌面上是默认图标,有几个默认的程序。有个SuSE的图标,其实是个网页链接,没什么用。在第一次启动时候会打开那个窗口。
注意:默认的打开一个程序是单击图标,而不是Windows默认的双击。
设置桌面十分容易,图标可以随意拖动。如果你想把K菜单的某个程序放到桌面,在菜单里那个条目上右击,“将项目添加到桌面”。此外,多在不同地方点点右键,就知道怎么回事了。
壁纸屏保类设置在桌面空白处点右键-配置桌面,看看就明白。
简单修改后的桌面,点图像上面all size按钮看大图:
http://www.flickr.com/photos/78377921@N00/64207469/
特别建议:刚装好不要开k3b和kaffeine,k3b正常关不上,kaffeine是有原因的,以后会说。
2、网络设置:
YaST是SuSE里面改系统设置的图形界面(也有命令行模式),你可以在K菜单-控制中心-YaST模块
打开,也可以 K-系统-控制中心(Yast),或者
K-运行命令-输入yast-回车。
YaST-网络设备,在这里调节你的网络接入硬件。
-小区宽带:网卡-选中要用网卡-编辑-静态IP地址-输入服务商给你的IP和子网掩码,点主机和名称服务器,在名称服务器输入你的DNS服务器IP,右边可以空着不管;路由选择-输入你的默认网关IP。
3、更新:
SuSE
Linux的更新可以分两类:在线更新和系统更新。前者指官方更新,后者指非官方更新。不管怎样更新,你的安装盘都是重要的包来源,不管是系统恢复还是新装其他包,所以建议你把安装盘上的东西拷到硬盘一个目录,然后添加到安装源。
-在线更新:可以通过自动更新和手动更新实现。
自动更新(YOU):自动更新机制是SuSE的一大亮点,如果不是服务器都在国外的话。所以我是把SuSE
Watcher关闭的,当然你如果对自己网速有信心或者希望第一时间知道有无安全更新也不妨留着它。打开方式:YaST-软件-在线更新。在添服务器地址的时候不一定非要选列表里面的,可以自己输入,可以在
http://www.novell.com/products/susel...t_mirrors.html
找到快的镜像网址。比方说这个网址是
http://www.xxx.com/A/B/,那你输宮.x.com/A/B/suse
选择在线更新程序,点图像上面all size按钮看大图:
http://www.flickr.com/photos/78377921@N00/64210944/
手动更新:手动更新就是手动下载delta.rpm包进行更新,delta.rpm你可以理解成增量包,不是整的rpm包,只有你要更新那部分,YaST
现在完美支持delta.rpm的安装。一般来说这样更快且成功率高。还是在那上面的网页找官方镜像网址。比方说这个网址是http:
//www.xxx.com/A/B/,那你输入的网址就应该是http:
//www.xxx.com/A/B/suse/x86_64/update/10.0/deltas/
装什么就下什么,也可以先自动更新(YOU)记住名字再来找包。
比如你要进行Openoffice更新,那就下载OpenOffice_org-1.9.125_2.0.0-
5_1.2.i586.delta.rpm/OpenOffice_org-kde-1.9.125_2.0.0-5_1.2.i586.delta.rpm/OpenOffice_org-mono-1.9.125_2.0.0-5_1.2.i586.delta.rpm/OpenOffice_org-zh-CN-1.9.125_2.0.0-5_1.2.i586.delta.rpm
这几个包分别安装就行(KDE)。
-系统更新:分手动更新和源更新两种。
手动更新:手动下载非官方升级包(一般是rpm整包),用YaST安装,像装软件包一样(方法简单,后文也有)。
源更新:把某软件源加入安装源,YaST-系统更新,此时系统自动检查你安装的包和源上包的新旧并处理依赖性问题,然后自动下载安装比现有包新的包。
几个重要的YaST源:(仍然把http://www.xxx.com/A/B/作为你找到的官方镜像,非64位请把x86_64换成你的系统架构如i386)
KDE supplementary 3.51 update:
http://www.xxx.com/A/B/suse/x86_64/supplementary/KDE/update_for_10.0/yast-source/
GNOME supplementary 2.12 update:
http://www.xxx.com/A/B/suse/x86_64/supplementary/GNOME/update_for_10.0/yast-source/
supplementary applications and tools:
http://www.xxx.com/A/B/suse/x86_64/supplementary/misc/update_for_10.0/yast-source/
Packman (SuSE LINUX 10.0):
http://packman.iu-bremen.de/suse/10.0/
注意:非官方升级有风险,后果自负,尽管很多源在官方服务器上,也不建议你一次性把所有这些源全添进安装源并打开。
此外,每次源更新YaST都会试图更新Linux最核心的kernel模块,这是不必要甚至危险的。请根据自己情况点击界面上的“包”,搜kernel,点掉两个模块的更新,或者右键-保留。然后确定。
-系统重置:
就是把系统软件包(不包括后来各种设置和新安装的包)恢复到刚安装的状态。
方法:K-控制中心-Yast2模块-软件-安装源,关闭最初安装盘(或者你拷到硬盘上那个目录)以外的一切安装源。YaST-软件-软件管理,过滤器选包组,点zzz全部,在右面右击,“此列表中全部内容-无条件更新”,点下一步,等待完成就行了。
它对你新安装的软件没有影响,只对安装盘上有的包恢复到初始安装版本。
4、输入法设置
右击右下角的键盘图标,点配置调出配置窗口,或者页可以用ctrl+空格
调出主工具条,然后点最右边的钳子图标。
常用设置:
如果你不喜欢独立工具条:主工具条-主工具条显示模式-选择“嵌入模式”
一般来说,除了智能拼音以外并不用其他输入法,可以把其它输入法取消:全局配置-只钩智能拼音。重启以后生效。
配置东西都是根据你的喜好来的。
图例,点上面all sizes按钮看大图:
http://www.flickr.com/photos/78377921@N00/64503161/
右下角是嵌入模式的主工具条,配置窗口是只留下智能拼音输入法的设置。
如果你从KDE
Supplementary升级到3.5的KDE,会发现许多qt程序中输入法无法使用,此时需要下载到scim官方主页上下载scim-qtimm0.93(不要下0.9.4),自己编译一下,重启就行。
具体编译方法见后文。
5、字体安装和设置
-安装字体:
一般来说,SuSE的字体在众多发行版中算不错的,Novell公司买了方正字体的使用权用于SuSE
Linux。但由于众所周知的版权问题,Linux不可能自带微软的字体,所以为了系统美化,手动安装windows字体十分必要。
这里以宋体为例,文件名是simsun.ttc你可以从Windows\fonts目录里面提取,如果你机器上没有Windows,上网下载这个文件。K
菜单-控制中心-系统管理-字体安装程序-点“管理员模式”-添加新字体,选那个ttc文件,等一会就行(因为字体安装很慢)。不是Windows的
TrueType字体安装也类似,找到文件添加就行。
图例,点all sizes看大图:
http://www.flickr.com/photos/78377921@N00/64215033/
-字体设置:
SUSE Linux 10.0 的 KDE 慢的一个原因是 QT
的字体处理问题。系统里面安装了很多字体,KDE 缺省字体用了诸如
"Serif", "Sans Serif" 这样的虚拟字体名的时候,QT/KDE
程序就会变得很迟钝。所以有必要对字体进行设置:
方法1,(不推荐,基本不会有人这么做)删除所有不需要的字体:K菜单-控制中心-系统管理-字体安装程序-点“管理员模式”,选择字体,点上方右边数第2个删除按钮。
方法2:把 KDE
缺省字体都设置为某一个真实字体:K菜单-控制中心-外观与主题-字体,在这里“调整全部字体”,改成诸如FZSongTi,Luxi
Sans,SUSE Sans
之类字体会节省系统资源。个人建议除了第2个不动,都改成SUSE
Sans。
图例,点all sizes看大图:
http://www.flickr.com/photos/78377921@N00/64227942/
三、软件的安装和设置
1、YaST安装:
-下载软件包安装:
就是先下载适合自己系统架构的rpm包,然后用YaST安装。
优点:易控制,安装过程简单。
缺点:由于依赖性和其他问题,有些rpm包不能被直接安装。
星际译王(stardict):
星际译王是Linux下辞典软件,可扩展性强,功能类似Windows下金山词霸。
去
http://stardict.sourceforge.net下载主程序,就是网页上stardict-withoutgnome-2.4.6.i386.rpm这个连接,点进去选个镜像开始下载。
下载完成以后是一个rpm包,单击进入rpm包描述界面,单击左上角按钮“使用YaST安装包”,输入密码后等待完成就行。
然后此时你只有主辞典程序,没有字典。还是去
http://stardict.sourceforge.net,点上面Dictionaries,Dictionaries那一行下面会出现一行小分类“dictd-www.dict.org
/ dictd-www.freedict.de / dictd-www.mova.org / *Quick / zh_CN /
zh_TW / ja /
ru”,其中zh_CN是中文相关常用字典的分类。选择你需要的字典,点后面的RPM,选镜像下载。如上面一样安装。
安装完成以后要找到stardict在K菜单里面位置,点菜单上部的输入框输入stardict,不用输全,没有连接程序的分类字体会变灰,你可以轻易找到K菜单里面stardict位置了。
Opera:
---------安装--------
Opera是来自欧洲的网页浏览器,快速小巧。在安装盘里面带了Opera
8.02的安装包,升级以后会升级到8.52,但默认没有安装。但由于qt冲突等原因,都不能输入中文,我们需要下载一个Static版本Opera才能正常使用。之所以选取这个包,是为了说明单独rpm安装的依赖性问题。
步骤1.YaST-软件管理-搜索Opera-钩选安装。这是为了解决依赖性问题。
步骤2.去
http://www.opera.com/download/?platform=linux,选Other/Static
RPM,选个镜像,下载下来那个rpm包。完成后点那个rpm文件,出现如RPM预览视图点用YaST安装,输密码,OK。
见图,点all sizes放大:
http://www.flickr.com/photos/78377921@N00/64239321/
注:如果你没有经历步骤一,系统会少一个openmotif-libs-32bit的包,每次开Opera都会提示你,而且email功能不能用。这说明
步骤一中YaST以安装盘为源能更好解决依赖性问题,而单独安装包则有时候(不是必然)在依赖性方面有缺陷。解决方法,装上那个包。
------设置和美化------
既然安装了,顺便讲讲它的设置和美化。
K菜单中你会发现Opera那项前面是乱码,点右键-“编辑项”,改改就行
换中文界面:开Opera,去
http://www.opera.com/download/languagefiles/下载8.50的简体中文语言包,tools-preferences
,Language改Chinese[zh-cn],
点details,在上面选择你刚下载的语言文件-确定-重启Opera。
工具-首选项-细节-添加
中文(中国),[zh-cn],下面制定编码换“gbk”
美化:建议先导入Win的宋体字体,上文讲了,当然你用方正的字体也可以,工具-首选项-高级-字体前7个改成Nsimsun(或者FTSongti,如
果你喜欢),大小根据你的情况自己调节。此时菜单字体莫名其妙成为楷体,不用管,重启Opera或者重启机器就好了。如果不行,用FZsongti。
网页字体美化:首选项-高级-字体-国际字体
简体中文
左边Nsimsun右边自己看效果决定
这是我设置后效果,Opera显示中文网页效果与Windows下相同,点all
sizes放大:
http://www.flickr.com/photos/78377921@N00/64432232/
源安装:
源安装就是Yast根据你设置的安装源上的信息。原理是YaST先扫描源上的包(这么说不确切,如果有时间会说明具体YaST的工作流程和手动安装的方法,不过那应该算是中级教程),然后你来选择安装哪个和更新那个,然后YaST下载安装指定的包。
----源在哪里?
上文中的源在这里适用:
几个重要的YaST源:(仍然把http://www.xxx.com/A/B/作为你找到的官方镜像,32位把x86_64换成i386)
KDE supplementary 3.5 update:
http://www.xxx.com/A/B/suse/x86_64/supplementary/KDE/update_for_10.0/yast-source/
GNOME supplementary 2.12 update:
http://www.xxx.com/A/B/suse/x86_64/supplementary/GNOME/update_for_10.0/yast-source/
supplementary applications and tools:
http://www.xxx.com/A/B/suse/x86_64/supplementary/misc/update_for_10.0/yast-source/
Packman (SuSE LINUX 10.0):
http://packman.iu-bremen.de/suse/10.0/
此外drcux源的64位软件包也有许多我们常用软件:
http://ftp.gwdg.de/pub/linux/misc/suser-drcux/100/
32位和64位都能用的guru源:
http://ftp.gwdg.de/pub/linux/misc/suser-guru/rpm/10.0/来自 :http://blog.sina.com.cn/u/491529d60100061e
1.关机 :shutdown -h
重启 :shutdown -r
2.自动登录 :用ROOT 登录后在应用程序-系统-YAST-选中安全与用户-用户管理-选中专家选项-在登录设置中选中自动登录就可以啦
3.ADSL:设置好网卡后在终端输入ifup dsl0即可
SYBASE数据库管理系统中数据库损坏后,重新建立数据库的时间比较长,这将给应用(特别是对时间要求特别严格的应用,如金融、证券等)造成很大的损失。而如果在应用中遗忘超级用户sa口令,更会给系统管理带来极大的不便,甚至很多操作都无法进行。本文介绍一种简便的修复SYBASE数据库及恢复sa口令的方法。以下假定server能正常启动,server名为SYBASE,数据库名为demodb。
一、修复SYBASE数据库 分为两种情况: 1.数据库所用的设备正常,而库demodb的状态为suspect。
(1)以sa注册
isql -u sa -P
1>
(2)修改server属性,置系统表为允许修改该状态。
1>sp_configure "allow updates",1
2>go
3>recofigure with override
4>go
(3)修改数据库的状态,置数据库状态为server启动时不检测。
1>update master.sysdatabases set status = -32768
2>where name = "demodb"
3>go
(4)重启server。
(5)修改数据库的状态,置数据库状态为正常。
1>update master.sysdatabases set status = 0
2>where name ="demodb"
3>go
(6)修改server属性,置系统表为不允许修改状态。
1>sp_configure "allowupdates",0
2>go
3>reconfigure with override
4>go
(7)再次重启server。
至此,如果数据库能够正常,则恢复完毕。
以上步骤中,也可以用单用户模式启动server,命令为startserver -m,而不必修改server的"allow updates"属性。SYBASE 11及以上版本的server只需重启,不需要执行reconfigure with override。如果上述方法仍不能恢复数据库,则只能使用dbcc命令删除该数据库,然后重新建立。
2.数据库所占用的设备不正常,库的状态为suspect 使用sp_helpdb和sp_helpdevice命令查出数据库设备的逻辑名、物理名、设备号、大小等信息。如果上述命令无法查出数据库设备的信息,可使用select * from master.sydatabases和select * from master.sysdevices。然后用disk reinit重建设备。最后,按照1的步骤恢复数据库。
上述第一种情况数据库损坏程度较轻,对数据库内容检查后即可使用。而在第二种情况下,如果数据库的日志建立在不同的设备上,只是数据库的日志设备损坏,数据库的损坏程度会较轻,只是有些交易无法恢复;如果数据库的设备损坏,整个数据库的内容会全部丢失,其中表、表的内容、存储过程都需要重建。所以建议数据库和数据库的日志建立在不同的设备上。
系统错误日志errorlog文件存有SYBASE数据库系统的错误信息,系统出错时应先检查此文件,据此判断错误原因,找出解决办法,以免误操作。
二、 恢复sa口令 编辑RUN_SYBASE,在dataserver启动行尾加入参数 -psa,然后存盘退出,执行startserver -f RUN_SYBASE重启server,系统会给超级用户sa一个随机的密码,以此密码注册进入server,然后使用sp_password命令修改密码即可。
traceback:http://www.easyrecovery.com.cn/shujuku/2007-3-30/sybase-sa.htm
Sybase在unix下安装大致步骤说明如下:
1、 用scoadmin建立 sybase用户
2、 sybase登录,
在/usr/sybase目录下.profile文件最后加入如下语句: SYBASE=/usr/sybase export SYBASE DSQUERY=SYBASE export DSQUERY
3、 root登录,设置共享内存最大值:
#cd /etc/conf/cf.d
#./configure
然后在出现的一系列设置选项中选择第16项来设置共享内存最大值,根据计算机的内存大小来设置不同的值,64M设为67108864,128M设为68108864。录入新值后,以后3项不改,直接回车,然后按q退出,出现提示是否接受(y/n),选y
4、 更改目录 /etc/conf/sdevice.d中aio、sio、suds三个文件的第一项,将N改Y
5、 #vi /etc/rc2 在最后加入一行: /etc/suds_ctrl -a 50
6、 执行#/etc/conf/cf.d/link_unix 进行链接,
出现 ……………boot by default?(y/n) y
……………kernel enviroment rebuilt (y/n) y
#reboot
7、 root登录,#mount /dev/cd0 /mnt
8、 sybase登录,$/mnt/sybload -D
提示:是否/usr/sybase目录(y/n)? y
… Local or Remote … >L
… disk file of the global archive… >/mnt/sybimage
… Authoring String … >序列号
…Sybase Products available for installation… 1. ……
2. product No.2 SQL Server.sco.10.0.2 3. …… >2
>回车
if this list is correct as show …… please enter ‘y’ or ‘Y’ to cotinue …(y/n)
y
Positioning Media For loading Please Wait 开始从光盘上拷贝文件 x. ………
9、$su #umount /mnt
10、 Ctrl-d
回到sybase用户
$cd /usr/sybase/install
$./sybinit
1. release directory
2. Edit/view interfaces file
3. Configure a server product
4. Configure an open client/server product
5. Configure a Front End product Ctrl_a(accept) Ctrl_x(exit screen) 选2 后出现
1. Add a new entry
2. Modify an exisiting entry
3. View an existing entry
4. Delete an existing entry
选1 后出现
1. Server name: 输入1后再输入server名字:SYBASE,
按Ctrl_a后出现
1. Retry count : 0
2. Retry deiay : 0
3. Add a new listetener service
分别选1和2,将其值改为2
选3后出现
1. Hostname/Address
2. Port: ( 建议在5000-50000之间)
3. Name Alias:
4. Delete this service from the interfaces entry
选1输入本机名:localhost,
选2输入8888,Ctrl_a接受
Is this information correct ……(y/n) y
Ctrl_a
Write the changes to the interfaces file now?
y
Ctral_a
11、 返回主菜单,
选3.configure a server product 后出现
1. SQL Server
2. Backup Server
选1后出现
1. Configure a new SQL Server
2. Configure an existing SQL
3. Upgrade an existing SQL Server
选1,Ctrl_a 确认后出现9项
1. CONFIGURE SERVER’S INTERFACES FILE ENTRY COMPLETE
2. MASTER DEVICE CONFIGURATION INCOMPLETE
3. SYBSYSTEMPROCS DATABASE CONFIGURATION INCOMPLETE
4. SET ERRORLOG LOGATION INCOMPLETE
5. CONFIGURE DEFAULT BACKUP SERVER INCOMPLETE
6. CONFIGURE LAGUAGES INCOMPLETE
7. CONFIGURE CHARACTER SETS INCOMPLETE
8. CONFIGURE SORT ORDER INCOMPLETE
9. ACTIUATE AUDITING INCOMPLETE
从2至9开始设置
选2出现
1. Master device
2. Size <17>
选2设为30,
Ctrl_a确认退回上级菜单
选3出现
1. Sybsystemprocs database size (Meg):12
2. Sybsystemprocs logical device name: sysprocsdev
3. Create new device for the sybsystemprocs database: yes
4. Physical name of new device: /usr/sybase/sybprocs.dat
5. Size of the new device (Meg): 12
选1和5将值改为17,Ctrl_a确认退回上级菜单
依次选择第4到第9项出现
分别Ctrl+a 确认即可 ,然后出现提示(y/n) 选择 "y"
Ctrl+a 确认
设置完成后根据提示进行确认。
12。 开始安装程序。
13 安装完成后退出
回到菜单 1. SQL Server
2. Backup server
选择 2
Ctrl+a 确认
出现的菜单下选择 2。Enter/modify backup server interfaces files informantion
Ctrl+a 确认
出现菜单中
将 1,2 项设为2 《与前面相应步骤类似》
然后选择第3项
将 1. hostname/address <本机名> (如 localhost)
2.prot <设为9999> (注5000-50000之间任意,但不要与前面设的port相同)
第3,4 项不改。
Ctrl+a 确认
以下操作根据提示或Ctrl+a确认,或根据提示(y/n)按y
完成操作后也就完成了sybase 的安装。
--------------------------------------------------------------------------------
(注:本文档是作者根据经验整理出来的,其中错误之处在所难免。仅供参考之用,
希望各位高手指正。)
traceback:
http://www.qingren.org/item/1017/
Sybase数据库系统作为C/S构架的主流产品在我国有着广泛的应用,因此,对Sybase系统的维护也
显得至关重要。笔者在对Sybase系统维护工作中,总结了一些技巧和经验,现介绍给大家。
1.实现开机时自动装载Sybase数据库
原先要使Sybase SQL Server启动,一般需要先以sybase用户登录,然后运行$SYBASE/install目录下
的startserver命令启动SYBASE_XXXX服务进程和SYB_BACKUP_XXXX备份服务进程。
要实现Unix系统启动时就能在后台装载Sybase的功能,我们可在/etc/rc2.d/目录下新建一文件S99sybase,
内容如下:
SYBASE=/usr/sybase
PATH=$PATH:$SYBASE/bin
export $SYBASE $PATH
$SYBASE/install/startserver -f $SYBASE/install/RUN_SYBASE_XXXX > /dev/null
$SYBASE/install/startserver -f $SYBASE/install/RUN_SYB_BACKUP_XXX >/dev/null
然后修改Sybase的权限,重启系统即可。
2.实现关机时自动卸载Sybase数据库
为保证Sybase系统的正常运行,每次在关闭Unix系统时要先结束Sybase SQL Server 的服务进程,从减轻
系统管理人员操作的角度出发建立一用户halt,修改/etc/passwd文件,将halt用户的uid改为0(或其他可运行
shutdown的用户id),在/usr/halt/.profile中添加以下语句:
SYBASE=/usr/sybase
DSQUERY=SYBASE_XXXX
PATH=$PATH:$SYBASE/bin
export SYBASE DSQUERY PATH
isql -Usa -Pabcabc -ihalt.sql > /dev/null
shutdown -y -g0
其中“abcabc”为sa用户的口令,halt.sql是一简单的文本文件,内容如下:
shutdown
go
这样每次只要以halt用户登录,就实现了自动卸下Sybase数据库,然后关闭Unix系统。
3.Sybase库备份技巧
一般对Sybase库进行备份都用磁带作介质进行,但还有一更好的方法,即先备份到硬盘上然后经压缩,
拷贝到磁带上,这样便于恢复,多了一个备份拷贝,同时也节省了备份时间。具体实现步骤如下:
(1)建立磁盘备份设备
运行isql,以sa进入Sybase系统,运行如下内容:
sp_addumpdevice "disk",disk_bkupdevice ,/tmp/dumpdb ,2
go
这样就在Sybase中建立了一个名为“disk_bkupdevice”的备份设备,它对应Unix系统下的/tmp/dumpdb文件。
(2)创建备份用户
以root身份进入Unix系统,新建用户backupdb,并归属于sybase组。
(3)修改相关文件
在/usr/backupdb/.profile中添加以下语句:
SYBASE=/usr/sybase
DSQUERY=SYBASE_XXXX
PATH=$PATH:$SYBASE/bin
export SYBASE DSQUERY PATH
rm /tmp/backupdb.Z
echo"开始备份SYBASE数据库…"
isql -Usa -Pabcabc -ibackup.sql > /tmp/dbbackup.log
echo"硬盘备份完成,正在压缩备份的数据文件…"
compress /tmp/backupdb
echo "正在将备份的压缩数据拷入磁带…"
tar c8v /tmp/backupdb.Z
echo "备份完成!"
其中"abcabc"为sa用户的口令,backup.sql是一简单的文本文件,内容如下:
dump database db_main to disk_bkupdevice
go
备份的执行日志被记录在/tmp/dbbackup.log中,当然系统管理员也可通过查看$SYBASE/install/backup.log
获知备份日志。
这种备份方法要求硬盘空间足够大,这点请系统管理员在为Unix建分区时特别注意。
在SCO Open Server 5.0.4、Sybase 11.0.3平台上,以上几个小技巧已应用成功,为笔者的日常维护节省了许
多时间,取得了非常好的效果。
traceback: http://www.qingren.org/item/1016/
在各种操作系统中,Linux已经流行。因此,越来越多的主流数据库厂商将它们的产品移植到Linux操作系统平台,例如Sybase、Oracle和IBM等。此外,可以使用的自由软件越来越多。自由软件库中已经包括了Sybase ASE for Linux、Oracle for Linux、Informix for Linux等数据库软件以及其他各种软件。
在上述几种Linux平台上的数据库产品中,Sybase ASE的性能很好,紧凑的程序分发包里包含了全部文档、数据库备份和监视等工具,同时它对系统的要求不高(系统配置为32MB内存,包含文档的全部安装需要200MB硬盘,否则需要120MB硬盘)。它的安装、配置过程与其他产品相比也很简单。这些优势,连同Sybase数据库产品本来的用户基础,使得它成为Linux平台上出色的数据库软件。
但是,Sybase ASE在正常安装完成后,数据库超级用户的账号没有设置口令。这样,Internet上每一个知道服务器端口号的用户或者本机上的所有可登录用户都可以以超级用户身份对数据库随意操作。这应该说是一个非常大的安全漏洞。下面将逐步介绍Sybase ASE for Linux 的安装过程,以及安装完成后需要采取的安全配置和较为安全的系统。
一、Sybase ASE的安装
首先下载Sybase ASE for Linux软件包,网上可以比较容易找到RPM格式的二进制发行包,包括sybase-ase-11.0.3.3-1.i386.rpm(主程序包)、sybase-doc-11.0.3.3-1.i386.rpm(文档包)。RPM是Redhat公司的软件包管理程序,使用它可以非常方便地安装和卸载程序包,并保持它们之间的依赖关系。
然后,以超级用户的身份键入命令:
#rpm -i sybase-ase-11.0.3.3-1.i386.rpm
屏幕会显示Sybase公司的版权说明,键入“yes”表示同意。接下去安装程序会提示将在系统中创建一个用户sybase和相应的组,并要求为该账号设置相应的口令。Sybase数据库安装的缺省目录是/opt/sybase。安装时要注意磁盘分区有足够的空间(大于200MB)。
下一步可以重新以sybase登录继续配置,也可以使用 #su - sybase 改变身份为sybase来继续对sybase进行安装。屏幕上将会出现:
1.Release directory:/opt/Sybase
2.Edit / View Interfaces File
3.Configure a Server product
4.Configure an Open Client/Server product
Ctrl-a Accept and Continue, Ctrl-x Exit Screen, ? Help.
Enter the number of your choice and press return:
选择3来配置服务器,在该选项中将会一同配置服务器监听端口。在下面每一个屏幕提示下,数字表示具体选项,Ctrl-a表示已经配置完毕,进行下一步,Ctrl-x表示放弃刚才的选择,退回上一步,下面省去同样的提示。选择3后,出现以下提示:
Product Date InstalledDate Configured
1.SQL Server11 Sep 1998 06:47
2.Backup Server 11 Sep 1998 06:47
首先选择1配置SQL服务器,出现以下提示:
1.Configure a new SQL Server
2.Configure an existing SQL Server
3.Upgrade an existing SQL Server
然后选择1来配置一个新的SQL服务器。配置备份服务器可以在SQL服务器配置完成后再来。由于是第一次安装,所以选择配置新的服务器,后面2个选项分别提供了重新配置或者升级原服务器的功能
接下来的提示要求选择服务器的名字,具体如下:
ADD NEW SQL SERVER
1.SQL Server name:SYBASE
默认为SYBASE。这与sybase的交互式访问工具isql的默认服务器名字是一致的。
完成上述配置后,出现如下显示:
SQL SERVER CONFIGURATION
1.CONFIGURE SERVER'S INTERFACES FILE ENTRY Incomplete
2.MASTER DEVICE CONFIGURATION Incomplete 3.SYBSYSTEMPROCS DATABASE CONFIGURATION Incomplete
4.SET ERRORLOG LOCATION Incomplete 5.CONFIGURE DEFAULT BACKUP SERVER Incomplete
6.CONFIGURE LANGUAGES Incomplete 7.CONFIGURE CHARACTER SETS Incomplete
8.CONFIGURE SORT ORDER Incomplete 9.ACTIVATE AUDITING Incomplete
以上关系到数据库的具体内容,包括端口号、设备、语言和字符集等。下面假定不改变默认名,直接按Ctrl-a接受。
第1项配置服务器端口,选择后出现下面的提示屏幕:
SERVER INTERFACES FILE ENTRY SCREEN
Server name:SYBASE
1.Retry Count:0
2.Retry Delay:0
3.Add a new listener service
选择增加一个监听端口,出现下面的配置TCP端口的屏幕:
EDIT TCP SERVICE
1.Hostname/Address: localhost.localdomain
2.Port:
3.Name Alias:
4.Delete this service from the interfaces entry
其中的主机名在一般情况下由安装程序自动从环境中提取,通常不需要改动。但是,如果用户配置的是远程服务器的话,此处应该修改为相应的服务器地址。第二项的端口号用户可以自由选择,通常选择在1024以上。同样,如果是配置远程服务器,端口号应该修改为正确的端口地址。这2个参数会记录在/opt/sybase/interfaces文件中,也就是说在配置完成后,用户也可以手工修改该文件来重新改变连机端口的参数。
第2项配置数据库主设备。数据库主设备可以是一个新的物理设备,也可以是磁盘中的一个文件,大小可以根据需要和存储设备的空间大小调整。
后面各项的配置在普通应用下,基本上不需要修改缺省值。按照提示继续做下去,依次分别是配置Sybase系统进程数据库、错误日志、缺省备份服务器、字符集、数据库排序和激活审计等。其中的缺省备份服务器和激活审计配置对于数据库安全较为重要。
在管理员希望对数据库进行备份时需要备份服务器功能,它的原理是在一个特定的端口监听备份申请(该端口号必须与前面数据库端口号区分开),将数据库的数据备份到指定的设备中去(例如“/tmp/sybase.mybackup.19990909”)。选择该项后,出现如下显示:
SET THE SQL SERVER'S BACKUP SERVER
1.SQL Server Backup Server name:SYB_BACKUP
审计功能在缺省状态下并不打开。如果管理员认为需要,则可以参照下面的屏幕创建一个单独的数据库来存储系统审计信息。
ACTIVATE AUDITING
1.Install auditing:no
2.sybsecurity database size (Meg):5
3.sybsecurity logical device name:sybsecurity
4.create new device for the sybsecurity database:no
二、 安装后的安全问题与相应的配置
按照DoD52.00.28-STD信任计算机系统评估标准,即通常所说的桔皮书,Sybase ASE的设计标准为C2级,它提供了4种安全机制,分别是访问控制、认证控制、角色划分和数据库审计。访问控制是指对象所有者可以对不同的登录用户赋予或者取消某些访问的权利。认证控制是指保证只有被授权的用户才能登录进入系统。角色的划分使得系统管理员可以将系统的一些特殊权利分别赋予某一个用户,使他们能够分别完成某些关键任务。具体来说,Sybase数据库系统设定了3种主要角色:系统管理员(sa_role)、系统安全员(sso_role)和系统操作员(oper_role)。数据库审计系统可以对系统的登录、退出、数据库启动、远程过程调用、角色的变化和对各种对象的访问等操作提供记录与审查。
数据库应用采用客户机/服务器架构,服务器端在某一个端口监听网络连接请求。客户端申请连接,输入合法的用户名和相应的口令,进入服务器,然后运行需要的命令。这样,在数据库用户的配置管理方面如果出现安全漏洞,势必会给系统和数据带来非常大的威胁。可是,Sybase ASE在正常安装完成后,数据库超级用户的账号没有设置口令。这样,Internet上每一个知道服务器端口号的用户或者本机上的所有可登录用户都可以以超级用户身份对数据库随意操作。这应该说是一个非常大的安全漏洞。下面,通过对角色的分析,给出解决这一问题的方法。
1.三种角色的主要权利和任务
(1) sa_role
管理磁盘使用,改变系统各种运行参数,诊断系统出现的各种问题,备份和恢复数据库,对其他用户赋予或者取消sa_role,创建用户数据库并为它们授予合适的属主,以及建立用户组等等。
(2) sso_role
创建登录账号并初始化口令,更改其他所有账号的口令,对其他用户赋予或者取消sso_role以及oper_role,设定口令时限以及管理审计系统等。
(3) oper_role
备份和恢复各种数据库。
2.更改sa口令
Sybase ASE在安装完成时在系统中创建了用户sa,它同时具有sa_role和sso_role两种角色。此时的用户“sa”在服务器中具有无限的权利,相当于Unix系统中一个没有口令的root。这样,任何蓄意的联网用户都可以完全控制该SQL服务器。这不能不说是Sybase ASE的一个重大安全漏洞。为此,强烈建议在完成下面的安全配置之前请勿将服务器接入网络。
首先,利用Sybase提供的交互式访问工具isql连接服务器。键入以下命令:
$/opt/sybase/bin/isql -Usa -P -Smysybase
表示以用户sa、空口令连接服务器mysybase。更改sa的口令,
>sp_password NULL,"NewPassWd"
>go
将原来的空口令(NULL)改为当前的“NewPassWd”。这里的口令最少为6个字符长度,可以由任何可打印字符、字母和数字等组成。
3.关闭sa账号
角色的划分可以说是Sybase数据库相对于普通Unix系统在安全体制方面的改进。但是,大家知道,拥有无限权利的超级用户一方面是系统的保护者,但是更多的时候是给系统的安全带来了巨大的安全威胁。简单来说,超级用户一个低级的误操作就可能毁掉整个服务器。从攻击的角度来看,攻击者只要获得了超级用户的身份就表明他已经彻底攻克了该系统。而对于经过特权分割安全加固的系统来说,攻击者必须将若干个特权用户全部破解,才能得以完全控制该系统。可以说超级权利用户的存在是区分C级和B级安全系统的一个重要标志。
在设置sa账号的口令以后,通过创建新用户,并区分sa的角色,关闭sa,从而进一步加强服务器的安全。Sybasre提供了几个相应的命令sp_addlogin和sp_role等来完成上述操作。
>sp_addlogin sa_user,"Sa,PassWd"
>sp_addlogin sso_user,"Sso,PassW"
>sp_role "grant",sa_role,sa_user
>sp_role "grant",sso_role,sso_user
>sp_locklogin sa,"lock"
上述命令创建了两个用户sa_user,sso_user,并且分别设置了口令“Sa,PassW”和“Sso,Pass”,设置了角色sa_role和sso_role,然后关闭了账号sa。
(作者地址:江苏镇江南京经济学院桥头校区,212413)
traceback: http://www.qingren.org/item/1057/
Sybase12.5在WINXP下安装的时候是乱码,怎么解决?
A :
我感觉是字符集的问题,XP的字符集跟2000不一样,在2000下安装就没问题
但是我不知道怎么解决这个问题。
谢谢大家了。
---------------------------------------------------------------
\shared-1_0\jre1.2.2\lib\font.properties.zh.NT4.0改成font.properties.zh.NT5.0
另外还必须把
\shared-1_0\jre1.2.2\lib\font.properties.zh_TW改成font.properties.zh_CN
就可以解决Sybase12.5在WINXP下的安装问题了
来自:
http://www.shaoys.com/testart/ShowWebTPL.asp?DocID=csdnsql0368
下面是调试web service时,不同种种类的异常情况,以供调试参考
缺少的jar文件请加在classpath中,注意检查,classpath文件前面不要有空格。
缺少axis.jar
javax.xml.rpc.ServiceException: java.lang.ClassNotFoundException: org.apache.axis.client.ServiceFactory
at javax.xml.rpc.ServiceFactory.newInstance(ServiceFactory.java:69)
at com.company.project.remote.WebServiceClient.main(WebServiceClient.java:24)
缺少saaj.jar
Exception in thread "main" java.lang.NoClassDefFoundError: javax/xml/soap/SOAPException
at org.apache.axis.configuration.FileProvider.configureEngine(FileProvider.java:179)
at org.apache.axis.AxisEngine.init(AxisEngine.java:172)
at org.apache.axis.AxisEngine.(AxisEngine.java:156)
at org.apache.axis.client.AxisClient.(AxisClient.java:52)
at org.apache.axis.client.Service.getAxisClient(Service.java:104)
at org.apache.axis.client.Service.(Service.java:157)
at org.apache.axis.client.ServiceFactory.createService(ServiceFactory.java:198)
at com.company.project.remote.WebServiceClient.main(WebServiceClient.java:26)
缺少wsdl4j.jar
Exception in thread "main" java.lang.NoClassDefFoundError: javax/wsdl/extensions/mime/MIMEContent
at org.apache.axis.wsdl.gen.Parser.run(Parser.java:297)
at org.apache.axis.client.Service.initService(Service.java:243)
at org.apache.axis.client.Service.(Service.java:165)
at org.apache.axis.client.ServiceFactory.createService(ServiceFactory.java:198)
at com.company.project.remote.WebServiceClient.main(WebServiceClient.java:26)
错误的URL
javax.xml.rpc.ServiceException: Error processing WSDL document:
java.net.UnknownHostException: www.xmethods.com
at org.apache.axis.client.Service.initService(Service.java:250)
at org.apache.axis.client.Service.(Service.java:165)
at org.apache.axis.client.ServiceFactory.createService(ServiceFactory.java:198)
at com.company.project.remote.WebServiceClient.main(WebServiceClient.java:26)
缺少用户名、密码
javax.xml.rpc.ServiceException: Error processing WSDL document:
java.net.ProtocolException: Server redirected too many times (20)
at org.apache.axis.client.Service.initService(Service.java:250)
at org.apache.axis.client.Service.(Service.java:165)
at org.apache.axis.client.ServiceFactory.createService(ServiceFactory.java:198)
at com.company.project.remote.WebServiceClient.main(WebServiceClient.java:26)
版权声明:任何获得Matrix授权的网站,转载时请务必以超链接形式标明文章原始出处和作者信息及本声明作者:Birali Hakizumwami;
xzzhouhu原文地址:
http://www.onjava.com/pub/a/onjava/2005/10/19/constructing-web-services-with-globus-toolkit.html中文地址:
http://www.matrix.org.cn/resource/article/44/44032_Globus_Toolkit.html关键词: Globus Toolkit
摘要:本文主要介绍了通过一种新的方法来构建企业软件,即通过调整Globus Toolkit 4实现的网格计算的概念来实现。GT4是一种可以通过开放网格服务架构(OGSI)来实施的开放资源。这种实施主要目的是为网格服务架构提供了依据,同时也可以为别的网格服务架构实施提供参考。本文详细介绍了GT4中JAVA的核心服务,这些服务具备提供代管网格服务实时运行环境的能力,当然这些网格服务都是由JAVA写的。实时运行环境在网格服务的应用和网络承载之间和传输协议引擎之间起到了协调的作用。
一.网格的定义网格的定义:
网格就是将收集网络上所有可用的分布式计算资源提供给最终用户或组建成一个巨大的计算系统。网格计算给分布式计算提供了一种全新的方法,不仅在跨地区而且在跨组织,机器结构和软件限制,给连接到网格的每个用户提供更多的资源,计算机之间的协作和信息访问。分布式资源,像计算周期,存储和信息,可以在网格中的任何地区访问,同时也可以在网格中提供这些服务供其他用户访问。这就要通过在每个独立的组织或资源之间进行安全的协调资源共享,共同建立一个动态虚拟组织机构。
二.Globus Toolkit Version 4在本文中,我们主要讨论GT4中JAVA的核心服务。(如图1),这些服裉峁┝舜芡穹袷凳痹诵谢肪车哪芰ΑJ凳痹诵谢肪吃谟没Фㄒ宓挠τ梅窈虶T4的核心服务之间,网络承载和传输协议引擎之间起到了协调的作用。GT4核心服务还提供了程序开发支持的功能,包括开放式开发模式和访问网格服务的实现,像GRAM(Grid Resource Allocation Management,网格资源管理)。应用GT4强有力的理由就是因为它是建立在现有的WEB服务标准和技术的基础上,像SOAP和WSDL。网格服务提供的接口都是通过WSDL来描述的。GT4提供了一个软件仓库,像安全支持,软件的探索,软件的资源管理,软件的调用,软件之间的通信,异常处理和数据管理等。
(图1)
图1主要描述了在服务器端的GT4中的主要组件结构。这只是GT4所提供功能的一部分,我们只是认为它很适合本文。GT4结构由一个网格容器组成,网格容器主要用来管理所有部署的WEB服务,贯穿于每个WEB服务的运行周期。GT4使用apache的axis作为它的WEB服务的引擎来处理所有的SOAP消息,JAX-RPC (Java API for XML-Based RPC)处理和WEB服务的配置。
三.贷款偿还例子:我们列举这样一个例子,主要想向大家展示在企业内部如何通过Globus Toolkit 来解决不同类操作系统之间进行融合。在企业内部,有些应用可能是原来主机遗留下来的,技术比较落后,有些应用已经采用了现代技术,像J2EE。甚至我们采用最先进的技术在一个企业内部的应用之间进行信息共享也要面临巨大的挑战。图2给出了这样一个例子,在一个抵押机构内,在贷款偿还信息处理和会计部门信息处理之间的交互,
(图2)
会计部门使用申请贷款处理服务来申请贷款。
为了创建和部署网格服务,我们需要:
*通过创建WSDL文件来定义服务的接口
*用JAVA来实现
*通过创建WSDD文件来定义服务的部署参数
*使用ANT编译源代码并生成GAR文件
*用GT4分发工具部署GAR文件
我们必须使用从上往下的方法来创建网格服务,(图3)
这种方法首先从提供WSDL文件开始,在WSDL文件中包括对WEB服务的抽象定义,包括服务类型,消息类型和端口类型。从WSDL文档开始并根据WSDL文档创建了JAVA模型,从而导致与其他系统更好交互。
我们使用GT4 toolkit自带的工具来进行服务的绑定和产生客户段需要的根类。这种方法的下一步就是提供接口的实现。
贷款偿还服务处理定义:对于贷款偿还服务处理的例子的接口类型我们定义为loan.wsdl,它描述了贷款偿还服务所提供的三个部分的操作(申请贷款,贷款处理和获得贷款)。首先我们描述贷款偿还服务的请求和响应:
<types>
<xsd:element name="createLoan">
<xsd:complexType>
<xsd:sequence>
<xsd:element name="loanNumber" type="xsd:int"/>
<xsd:element name="amountUPB" type="xsd:double"/>
</xsd:sequence>
</xsd:complexType>
</xsd:element>
<xsd:element name="createLoanResponse">
<xsd:complexType>
<xsd:sequence>
<xsd:element name="returnValue" type="xsd:int"/>
</xsd:sequence>
</xsd:complexType>
</xsd:element>
<xsd:element name="processLoanPayment">
<xsd:complexType>
<xsd:sequence>
<xsd:element name="loanNumber" type="xsd:int"/>
<xsd:element name="amount" type="xsd:double"/>
</xsd:sequence>
</xsd:complexType>
</xsd:element>
<xsd:element name="processLoanPaymentResponse">
<xsd:complexType>
<xsd:sequence>
<xsd:element name="returnValue" type="xsd:int"/>
</xsd:sequence>
</xsd:complexType>
</xsd:element>
<xsd:element name="getLoan">
<xsd:complexType>
<xsd:sequence>
<xsd:element name="loanNumber" type="xsd:int"/>
</xsd:sequence>
</xsd:complexType>
</xsd:element>
<xsd:element name="getLoanResponse">
<xsd:complexType>
<xsd:sequence>
<xsd:element name="returnValue" type="tns:LoanType"/>
</xsd:sequence>
</xsd:complexType>
</xsd:element>
</types>
我们在文件 loan.xsd.中定义了贷款的数据类型,我们通过使用“ import <xsd:import schemaLocation="loan.xsd"/> ”可以直接将loan.xsd.文件导入到文件loan.wsdl 中,并且用它作为获得贷款操作返回的类型
<complexType name="LoanType">
<sequence>
<element name="loanNumber" type="int"/>
<element name="UPB" type="double"/>
<element name="status" type="string"/>
<element name="createDate" type="string"/>
</sequence>
</complexType>
下一步,我们要定义所有的消息服务。一条消息元素可能由一个或多个部分组成,消息元素的每个部分对应一个参数,并且还有一个类型属性。消息既可以是一个请求消息(输入消息),也可以是一个响应消息(输出消息)。
<message name="CreateLoanInputMessage">
<part name="parameters" element="tns:createLoan"/>
</message>
<message name="CreateLoanOutputMessage">
<part name="parameters" element="tns:createLoanResponse"/>
</message>
<message name="ProcessLoanPaymentInputMessage">
<part name="parameters" element="tns:processLoanPayment"/>
</message>
<message name="ProcessLoanPaymentOutputMessage">
<part name="parameters"
element="tns:processLoanPaymentResponse"/>
</message>
<message name="GetLoanInputMessage">
<part name="parameters" element="tns:getLoan"/>
</message>
<message name="GetLoanOutputMessage">
<part name="parameters" element="tns:getLoanResponse"/>
</message>
最后我们定义所有的端口类型,每个接口类型定义了一个或多个操作来使用当前的操作元素,每个独立的操作元素又定义了一个操作和与操作有联系的消息的输入输出。在一个端口类型内操作元素定义了端口类型内所有调用方法的语法。
<portType name="LoanPortType">
<operation name="createLoan">
<input message="tns:CreateLoanInputMessage"/>
<output message="tns:CreateLoanOutputMessage"/>
<fault name="Fault" message="ogsi:FaultMessage"/>
</operation>
<operation name="processLoanPayment">
<input message="tns:ProcessLoanPaymentInputMessage"/>
<output message="tns:ProcessLoanPaymentOutputMessage"/>
<fault name="Fault" message="ogsi:FaultMessage"/>
</operation>
<operation name="getLoan">
<input message="tns:GetLoanInputMessage"/>
<output message="tns:GetLoanOutputMessage"/>
<fault name="Fault" message="ogsi:FaultMessage"/>
</operation>
</portType>
服务的实现: 在前面的步骤中,终端贷款端口类型的接口已经产生,在定义这些端口类型的接口时,所有的远程操作都要设为public,并且抛出java.rmi.RemoteException。在本文中给出了LoanServiceImpl类,主要实现贷款端口类型的接口,这些实现要用到前面所讲到的用loan.wsdl文件所生成的根类。
public class LoanServiceImpl implements LoanPortType
其中LoanServiceImpl 所实现的方法定义在LoanPortType接口中,createLoan方法在产生一个createLoan对象的构造器中要获取一个贷款数字作为它的参数。
public CreateLoanResponse createLoan(CreateLoan cl)
throws java.rmi.RemoteException
public ProcessLoanPaymentResponse processLoanPayment(ProcessLoanPayment plp)
throws java.rmi.RemoteException
public GetLoanResponse getLoan(GetLoan gl) throws java.rmi.RemoteException
请参考完整代码详细描述方法的实现。
编译并创建贷款/偿还处理的WEB服务:
下面我们介绍通过以下步骤来创建易部署的GT4打包文档。Ant在编译本文所提供文件时所产生的build.xml中包含了ant的执行任务的步骤。在build.xml中ant的执行任务调用GT4中的ant任务,这些任务伴随着GT4的发布可以在编译文件中找到。
%GLOBUS_LOCATION%/share/globus_wsrf_common/build-packages.xml
%GLOBUS_LOCATION%/share/globus_wsrf_tools/build-stubs.xml
%GLOBUS_LOCATION%/share/schema
编译GT4中易部署的GAR文件 为了创建易部署的网格打包文件,loan.gar,我们通过以下步骤来实现:(这些步骤与builder.xml中的ant任务是一致的):
· 与WSDL文件绑定
· 通过WSDL 文件生成一个根类,在安装时,提供一个特殊文件来对不同的命名空间和包之间进行映射,这些包与表格中的目录结构一致。
· 编译根类
· 编译接口类
· 用JAR压缩接口类,和根类一样(loan.jar and loan_stubs.jar).
· 通过创建部署描述文件deploy-server.wsdd.来生成易部署的GAR文件,loan.gar
请参考源代码中完整的build.xml文件,通过以上步骤来实现一系列的ant编译任务。GT4描述我们的WEB服务文件deploy-server.wsdd就想这样:
<service name="loan/impl/LoanService" provider="Handler"
use="literal" style="document">
<parameter name="className" value="loan.impl.LoanServiceImpl"/>
<wsdlFile>share/schema/loan/Loan_service.wsdl</wsdlFile>
<parameter name="allowedMethods" value="*"/>
<parameter name="handlerClass"
value="org.globus.axis.providers.RPCProvider"/>
<parameter name="scope" value="Application"/>
<parameter name="providers" value="GetRPProvider"/>
<parameter name="loadOnStartup" value="true"/>
</service>
让我们来介绍一下deploy-server.wsdd中的一些参数:
服务名称:指定我们所提供的WEB服务的路径,我们将它与WEB服务容器的地址相结合起来,我们会得到WEB服务的完整的URL。为了便于测试,使用独立的GT4容器,URL就像这样:
http://localhost:8080/wsrf/services/loan/impl/LoanService类名:指实现服务接口的类(LoanServiceImpl).
WSDL文件:告诉GT4中的WEB服务容器对于当前的WEB服务的WSDL文件在那里可以找到。WSDL文件Loan_service.wsdl是在GT4 从loan.wsdl进行ANT时自动产生的。
启动时装载:如果我们需要服务在WEB服务容器启动时就开始装载,允许我们控制服务的装载。
部署GAR文件:GAR文件loan.gar包含了所有的文件和WEB服务器需要的部署信息,我们使用GT4部署工具:
%GLOBUS_LOCATION%/bin/globus-deploy-gar $PROJECT_HOME/loan.gar 拷贝文档文件(loan.wsdl,编译的根类,编译的接口实现,loan.wsdd)到GT4容器的目录下适当位置。
测试借贷款处理实例在图1描述了如何将贷款方的子系统和贷款结算子系统作为借贷款的WEB服务的客户端,现在我们就在GT4网格服务容器中创建和部署WEB服务,我们需要用一个客户端进行测试,测试用例模拟一个贷款事件,一个贷款月度偿还事件和一个贷款还清事件。作为客户端来说,他们希望WEB服务的URI(统一资源标识符)能够作为客户端访问WEB服务的依据。客户端的程序要独立的进行编译,下面来描述客户端访问WEB服务的主要步骤:
创建一终端引用类型对象,来代表终端引用的贷款服务。我们的终端引用只需要服务的URI:
EndpointReferenceType endpoint = new EndpointReferenceType();
endpoint.setAddress(new Address(serviceURI));
下一步,我们要获得引用服务的端口类型,这需要一个根类调用LoanServiceAddressingLocator, LoanServiceAddressingLocator主要是用来维持客户端与WEB服务之间的通信和获得引用贷款端口的类型。
LoanServiceAddressingLocator locator = new LoanServiceAddressingLocator();
LoanPortType loanPT = locator.getLoanPortTypePort(endpoint); 一旦我们获得这个引用,我们可以作为本地对象来操作WEB服务。例如,调用远程的创建操作,我们仅仅需要在贷款端口类型中使用创建方法。
CreateLoanResponse clr = loanPT.createLoan(new CreateLoan(amount, loanNumber));请参考附件中完整的客户端代码。在编译客户端之前,请保证运行下面的脚本,以便于GT4的发布:
%GLOBUS_LOCATION%/etc/globus-devel-env.batglobus-devel-env.bat文件主要是将Globus的类库注册到系统的classpath中,因为客户端是作为独立的应用来编译的,同样,要保证在编译客户端的目录中所放置的已编译的根类时能通过classpath找到,因此我们的客户端可以访问服务器端的根类,像LoanServiceAddressingLocator。
启动网格容器使用下面的命令来启动网格容器:
%GLOBUS_LOCATION%/bin/globus-start-container –nosec-nosec参数主要是为了简化测试,略去安全设置。如果网格容器启动成功,你将会看到已部署的服务的URI列表,如果LoanService正确的部署,在已部署的服务的列表中有下面的一行:
[13]: http://localhost:8080/wsrf/services/loan/impl/LoanService测试借贷款处理的WEB服务通过客户端进行测试,我们假设有以下操作:申请贷款,偿还贷款,还清贷款。
· 创建一个初始化贷款编号为100并且还有12000未还
java Client http://172.24.15.29:8080/wsrf/services/loan/impl/LoanService createLoan 100 120000
Loan 100 created successfully.· 假定两个月偿还,每个月还$1100(本例不考虑利息的计算)
java Client http://172.24.15.29:8080/wsrf/services/loan/impl/LoanService processLoanPayment 100 1100
Loan 100 processed successfully.
java Client http://172.24.15.29:8080/wsrf/services/loan/impl/LoanService processLoanPayment 100 1100
Loan 100 processed successfully.· 查看贷款的状态
java Client http://172.24.15.29:8080/wsrf/services/loan/impl/LoanService getLoanData 100
Loan Data
Create Date Mon Jun 06 16:41:06 EDT 2005
Unpaid Principal Balance 117800.0
Status ACTIVE · 第三个月还清余款($117,800)
java Client http://172.24.15.29:8080/wsrf/services/loan/impl/LoanService processLoanPayment 100 117800
Loan 100 processed successfully· 查看贷款状态
java Client http://172.24.15.29:8080/wsrf/services/loan/impl/LoanService getLoanData 100
Loan Data
Create Date Mon Jun 06 16:41:06 EDT 2005
Unpaid Principal Balance 0.0
Status PAIDOFF 结束语:本文主要描述了在基于现有的WEB服务标准的基础上,如何调整GT4网格结构来创建一个网格服务应用。尽管GT4已经主要的应用在大型的科学计算问题上,但是在一个企业内部它可以作为实现面向服务结构(SOA)的一种方法。本文主要是通过一个简单的实例来描述如何使用GT4中的JAVA核心服务来创建和部署一个网格服务,但是并没有覆盖到更多的其他的更先进的关于如何使用网格服务概念,向网格服务的分配和管理,文件传输的可靠性,网格异常和安全。
资源 ·
本文的示例代码·Matrix-Java开发者社区:
http://www.matrix.org.cn·onjava.com:
onjava.com
Trackback: http://tb.blog.csdn.net/TrackBack.aspx?PostId=544636
程序替换掉5个文件就可以让您的M3gate浏览器成为中文版,还不赶紧行动。汉化包由中国被爱可以在线[http://www.bicyle.org]提供。
使用说明:
1.如果您已经安装了M3gate Version 1.2 Beta后,覆盖原安装程序文件夹下的文件[见清单]。
例如位置F:\Program Files\NumericLabs\M3Gate 覆盖文件清单:
Handy.dll ''启动文件时,确定。
M3Browse.dll ''查看属性时的文字汉化。
''右键菜单和设置对话框、界面设置等。
Lang//
im3en.dll
bm3en.dll
Skin//
SM3April.s2i
2.任何基于M3gate Version 1.2 Beta程序的工具,均可替换掉相应文件。
如:WapDisplayer V1.2等
3.此汉化组件仅对M3gate Version 1.2 Beta有较好的作用,对Version 0.6不予支持。
附件:
M3GateToChinese.rar (339 K) 来自:http://www.maikr.com/kan.aspx?id=2e96d77e-18b3-44c9-8731-03a92dd36689
这几天也一直在为了设计与实现一个业务平台,想用Webservice 来作为核心技术来实现,也一直想精溢求精地把这个东东搞好, 突然觉得好久没来这里写日志了.呵,时间如白驹过隙啊!
对于webService 以前也接触过.但只是皮毛,这次可是来真格的.来就来吧,年轻人这就是机会.一定得把握好,干它一票! 呵,就在网上到处找找啊,在本地机器上左试试,右试试啊, 什么法子都用一遍。就不信搞不定它,小样!
网上的例子也比较散,比较简易的,达不我想要的业务水平,只能慢慢搜索与摸索吧。。。。。。就这样天天想着这事,也没什么心情来这里写写。
近些天,也快回深圳了,定在下周四动身吧。这边的工作也得告一节了。把我前一些日子,搞一个完整的Samples 放到这里来,与大家共享。希望对有心人有些启发,也希望高人指点与点评。。。。。。。、
****************************************************
*Axis开发Webservice传Bean对象返回String串的实例.rtf*
****************************************************
在ECLIPSE 里新建一工程,其次建包,再次建类,
基本包:samples.userguide.example5
基本类: Order.java
内容:
* Order.java *
*《********************************
package samples.userguide.example5;
/**
* This is a JavaBean which represents an order for some products.
* Copyright: Copyright (c) 2007-1
* @author Black skin (blackskin@126.com)
* @version 1.0
*/
public class Order {
/** Who's ordering */
private String customerName;
/** Where do they live */
private String shippingAddress;
/** Which items do we want */
private String itemCodes[];
/** And how many */
private int quantities[];
// Bean accessors
public String getCustomerName() {
return customerName;
}
public void setCustomerName(String name) {
customerName = name;
}
public String getShippingAddress() {
return shippingAddress;
}
public void setShippingAddress(String address) {
shippingAddress = address;
}
public String[] getItemCodes() {
return itemCodes;
}
public void setItemCodes(String[] items) {
itemCodes = items;
}
public int[] getQuantities() {
return quantities;
}
public void setQuantities(int[] quants) {
quantities = quants;
}
}
********************************》*
主服务包: samples.userguide.example5
主服务类: BeanService.java
如下:
* BeanService.java *
**《*******************************
package samples.userguide.example5;
/**
* This is a JavaBean which represents an order for some products.
* Copyright: Copyright (c) 2007-1
* @author Black skin (blackskin@126.com)
* @version 1.0
*/
public class BeanService {
public String processOrder(Order order) {
String sep = System.getProperty("line.separator");
String response = "Hi, " + order.getCustomerName() + "!" + sep;
response += sep + "You seem to have ordered the following:" + sep;
String[] items = order.getItemCodes();
int[] quantities = order.getQuantities();
for (int i = 0; i < items.length; i++) {
response += sep + quantities[i] + " of item : " + items[i];
}
response += sep + sep + "If this had been a real order processing system, "
+ sep + "we'd probably have charged you about now.";
return response;
}
public static void main(String[] args) throws Exception{
/** Who's ordering */
String customerName = "Black Skin";
/** Where do they live */
String shippingAddress = "001 xingan Street, bayuquan, YK";
/** Which items do we want */
String[] items = new String[] { "apple", "160ml-Milk" };
/** And how many */
int[] quantities = new int[] { 2, 4 };
/** request class init() */
Order order = new Order();
order.setCustomerName(customerName);
order.setShippingAddress(shippingAddress);
order.setItemCodes(items);
order.setQuantities(quantities);
/** server class init() */
BeanService beanservice = new BeanService();
String result = beanservice.processOrder(order);
/** OutPut the result */
System.out.println(" " + result);
}
}
********************************》*
BeanService.java里有个本地测试方法(samples.userguide.example5.BeanService.main()),来测试此应用的可运行性;
到此,服务端类写完了,接着来把此类的方法发布成 WebService 接口
手写一个deploy.wsdd 文件,可以参考下面的例子:
*deploy.wsdd例子*
*《********************************
<?xml version="1.0" encoding="utf-8"?>
<deployment xmlns="http://xml.apache.org/axis/wsdd/" xmlns:java="http://xml.apache.org/axis/wsdd/providers/java">
<service name="服务名" provider="java:RPC">
<parameter name="className" value="服务类文件的实际路径(包括包的信息)"/>
<parameter name="allowedMethods" value="*(即为所有方法都可访问,如要指定多个可用空格分隔开)"/>
<parameter name="allowedRoles" value="user"/>
<parameter name="scope" value="Session"/>
<requestFlow>
<handler type="java:org.apache.axis.handlers.SimpleAuthenticationHandler"/>
</requestFlow>
</service>
</deployment>
********************************》*
显然,简单,造一个deploy.wsdd 信手捏来,如下:
*deploy.wsdd*
*《********************************
<deployment xmlns="http://xml.apache.org/axis/wsdd/" xmlns:java="http://xml.apache.org/axis/wsdd/providers/java">
<service name="OrderProcessor" provider="java:RPC">
<parameter name="className" value="samples.userguide.example5.BeanService"/>
<parameter name="allowedMethods" value="processOrder"/>
<beanMapping qname="myNS:Order" xmlns:myNS="urn:BeanService" languageSpecificType="java:samples.userguide.example5.Order"/>
</service>
</deployment>
********************************》*
有了deploy.wsdd文件了,接着通过它来生成 server-config.wsdd.
OK! 用命令直接生成就行;在deploy.wsdd 的文件夹下新建一个 makeWsdd.bat.
其中的写法有下面的例子来参考:
* makeWsdd.bat 例子*
*《********************************
set AXISCLASSPATH= “应用发布的路径”
set AXIS_LIB= “AXIS框架的内部JAR包LIB路径”
SET CLASSPATH=.;%CLASSPATH%;%AXIS_LIB%\wsdl4j-1.5.1.jar;%AXIS_LIB%\axis.jar;%AXIS_LIB%\jaxrpc.jar;
%AXIS_LIB%\saaj.jar;%AXIS_LIB%\commons-discovery-0.2.jar;%AXIS_LIB%\commons-logging-1.0.4.jar
java -Djava.ext.dirs=%AXISCLASSPATH% org.apache.axis.client.AdminClient
-S服务名\services\AdminService -p端口号(如果你的端口号不是默认的8080需要指定。
例如:8899)deploy.wsdd
********************************》*
如此,我写了一“makeWsdd.bat”文件。如下:
* makeWsdd.bat*
*《********************************
set AXISCLASSPATH=C:\Axis_webservice\Tomcat_4.1\webapps\axis
set AXIS_LIB=C:\axis-1_4\lib
SET CLASSPATH=.;%CLASSPATH%;%AXIS_LIB%\wsdl4j-1.5.1.jar;%AXIS_LIB%\axis.jar;%AXIS_LIB%\jaxrpc.jar;
%AXIS_LIB%\saaj.jar;%AXIS_LIB%\commons-discovery-0.2.jar;%AXIS_LIB%\commons-logging-1.0.4.jar
java -Djava.ext.dirs=%AXISCLASSPATH% org.apache.axis.client.AdminClient
-SBeanServer\services\AdminService -p 8080 deploy.wsdd
********************************》*
保存好,接下来架设Webservice.
环境架设:
首先,安装JDK...(略)...本例用JDK版本号V1.4.
其次,安装Tomcat...(略)...本例用Tomcat版本号V4.1.
再次,AXIS...(略)...本例用AXIS版本号V1.4. 去AXIS官方网站:http://www.apache.org下载AXIS,解压后得,
|- axis-1_4
|- docs
|- ..(略)...
|- lib
|- axis.jar
|- axis-ant.jar
|- commons-discovery-0.2.jar
|- commons-logging-1.0.4.jar
|- jaxrpc.jar
|- log4j-1.2.8.jar
|- log4j.properties
|- saaj.jar
|- wsdlj-1.5.1.jar
|- samples
|- ..(略)...
|- webapps
|- axis
|- ..(略)...
|- xmls
|- ..(略)...
将解压后,C:\axis-1_4\webapps 目录下的 axis 目录 Copy 到 tomcat/webapps目录(C:\Axis_webservice\Tomcat_4_1\webapps)下,
架设AXIS:
首先,将deploy.wsdd文件Copy到 %AXISCLASSPATH%/WEB-INF 目录下;
其次,将之前的类编译后,连路径一起Copy到 %AXISCLASSPATH%/WEB-INF/classes目录下,
最后,将tomcat的 catalina 服务启动.
(即:C:\Axis_webservice\Tomcat_4.1\bin,
[特别注意的是:]
A。tomcat务必启动。
B。在写如上的命令行时,务必注意参数的写法。“-D” 与 “-S”与其值间不能有空格。切记!
C。各XX的路径里,最好是不要有空格,因为JAVA里对大小写与路径空格有校验。
,)
测试:
命令行启动方法;运行"cmd",在命令行里写:"cd C:\Axis_webservice\Tomcat_4.1\bin",回车,再写:" catalina run ",回车,OK!
后台会报错:
"
- Unable to find config file. Creating new servlet engine config file: /WEB-INF/server-config.wsdd
2007-1-20 10:07:48 org.apache.coyote.http11.Http11Protocol start
信息: Starting Coyote HTTP/1.1 on port 8080
"
说明,在../WEB-INF/下没有"server-config.wsdd",暂时忽略。
在IE地址栏写:http://localhost:8080/axis
可见,axis 欢迎首页,点击 "list" 便可看到默认情况下发布了两个服务下各有一个方法。一切准备工作已经OK!
再回到,刚才我们写的那个批处理文件:" makeWsdd.bat",
直接双击,便可执行, 有一个警告,可以忽略的。执行完成后,在相应的
%AXISCLASSPATH%/WEB-INF下便有一“server-config.wsdd”文件,如下:
*server-config.wsdd*
*《********************************
<?xml version="1.0" encoding="UTF-8"?>
<deployment xmlns="http://xml.apache.org/axis/wsdd/" xmlns:java="http://xml.apache.org/axis/wsdd/providers/java">
<globalConfiguration>
<parameter name="sendMultiRefs" value="true"/>
<parameter name="disablePrettyXML" value="true"/>
<parameter name="adminPassword" value="admin"/>
<parameter name="attachments.Directory" value="C:\Axis_webservice\Tomcat_4.1\webapps\axis\WEB-INF\attachments"/>
<parameter name="dotNetSoapEncFix" value="true"/>
<parameter name="enableNamespacePrefixOptimization" value="false"/>
<parameter name="sendXMLDeclaration" value="true"/>
<parameter name="sendXsiTypes" value="true"/>
<parameter name="attachments.implementation" value="org.apache.axis.attachments.AttachmentsImpl"/>
<requestFlow>
<handler type="java:org.apache.axis.handlers.JWSHandler">
<parameter name="scope" value="session"/>
</handler>
<handler type="java:org.apache.axis.handlers.JWSHandler">
<parameter name="scope" value="request"/>
<parameter name="extension" value=".jwr"/>
</handler>
</requestFlow>
</globalConfiguration>
<handler name="LocalResponder" type="java:org.apache.axis.transport.local.LocalResponder"/>
<handler name="URLMapper" type="java:org.apache.axis.handlers.http.URLMapper"/>
<handler name="Authenticate" type="java:org.apache.axis.handlers.SimpleAuthenticationHandler"/>
<service name="AdminService" provider="java:MSG">
<parameter name="allowedMethods" value="AdminService"/>
<parameter name="enableRemoteAdmin" value="false"/>
<parameter name="className" value="org.apache.axis.utils.Admin"/>
<namespace>http://xml.apache.org/axis/wsdd/</namespace>
</service>
<service name="Version" provider="java:RPC">
<parameter name="allowedMethods" value="getVersion"/>
<parameter name="className" value="org.apache.axis.Version"/>
</service>
<service name="OrderProcessor" provider="java:RPC">
<parameter name="allowedMethods" value="processOrder"/>
<parameter name="className" value="samples.userguide.example5.BeanService"/>
<beanMapping languageSpecificType="java:samples.userguide.example5.Order" qname="ns1:Order" xmlns:ns1="urn:BeanService"/>
</service>
<transport name="http">
<requestFlow>
<handler type="URLMapper"/>
<handler type="java:org.apache.axis.handlers.http.HTTPAuthHandler"/>
</requestFlow>
<parameter name="qs:list" value="org.apache.axis.transport.http.QSListHandler"/>
<parameter name="qs:wsdl" value="org.apache.axis.transport.http.QSWSDLHandler"/>
<parameter name="qs.list" value="org.apache.axis.transport.http.QSListHandler"/>
<parameter name="qs.method" value="org.apache.axis.transport.http.QSMethodHandler"/>
<parameter name="qs:method" value="org.apache.axis.transport.http.QSMethodHandler"/>
<parameter name="qs.wsdl" value="org.apache.axis.transport.http.QSWSDLHandler"/>
</transport>
<transport name="local">
<responseFlow>
<handler type="LocalResponder"/>
</responseFlow>
</transport>
</deployment>
********************************》*
再去打开:"http://localhost:8080/axis/servlet/AxisServlet",或者,再刷新。
便可以看到,我们新发布的一个webservice接口服务,其名为:"OrderProcessor "
此服务下的个方法:其名为:"processOrder "。
点击服务对应的"(WSDL)"可见服务WSDL描述内容。在其中也可以得服务的访问地址:
"http://localhost:8080/axis/services/OrderProcessor?wsdl"
服务器端的开发,搞定了!
-:) -:) -:)
接下来,准备开发,客户端的开发。
* Client.java *
*《********************************
package samples.userguide.example5;
/**
* This is a JavaBean which represents an order for some products.
* Copyright: Copyright (c) 2007-1
* @author Black skin (blackskin@126.com)
* @version 1.0
*/
import java.net.URL;
import org.apache.axis.AxisFault;
import org.apache.axis.client.Call;
import org.apache.axis.client.Service;
import org.apache.axis.utils.Options;
import javax.xml.namespace.QName;
import javax.xml.rpc.ParameterMode;
public class Client {
public static void main(String[] args) throws Exception {
//Options options = new Options(args);
String urlWsdl = "http://localhost:8080/axis/services/OrderProcessor?wsdl";
Order order = new Order();
order.setCustomerName("Black Skin");
order.setShippingAddress("275 Grove Street, Newton, MA");
String[] items = new String[] { "apple", "160ml-Milk" };
int[] quantities = new int[] { 8, 4 };
order.setItemCodes(items);
order.setQuantities(quantities);
Service service = new Service();
Call call = (Call) service.createCall();
QName qn = new QName("urn:BeanService", "Order");
call.registerTypeMapping(Order.class, qn,
new org.apache.axis.encoding.ser.BeanSerializerFactory(
Order.class, qn),
new org.apache.axis.encoding.ser.BeanDeserializerFactory(
Order.class, qn));
String result;
try {
//call.setTargetEndpointAddress(new java.net.URL(options.getURL()));
call.setTargetEndpointAddress(new java.net.URL(urlWsdl));
call.setOperationName(new QName("OrderProcessor", "processOrder"));
call.addParameter("arg1", qn, ParameterMode.IN);
call.setReturnType(org.apache.axis.encoding.XMLType.XSD_STRING);
result = (String) call.invoke(new Object[] { order });
} catch (AxisFault fault) {
result = "Error : " + fault.toString();
}
System.out.println(result);
}
}
********************************》*
oK! 到此,一个完整的Webservice例子就搞定了。
另外,Axis 还提供了一些工具,如:" wsdl2java "、" java2wsdl "
处理的方式与方法:
java2wsdl:
1. 以上为例,在以上工程的class输出目录新建一BAT文件:名为:“java2wsdl.bat”
2. 其内容为:
* java2wsdl.bat *
*《********************************
set AXIS_LIB=C:\axis-1_4\lib
SET CLASSPATH=.;%CLASSPATH%;%AXIS_LIB%\wsdl4j-1.5.1.jar;%AXIS_LIB%\axis.jar;%AXIS_LIB%\jaxrpc.jar;%AXIS_LIB%\saaj.jar;%AXIS_LIB%\commons-discovery-0.2.jar;%AXIS_LIB%\commons-logging-1.0.4.jar
java org.apache.axis.wsdl.Java2WSDL -o Order.wsdl -l"http://localhost:8080/axis/services/OrderProcessor" -n "urn:BeanService" -p"samples.userguide.example5.Order" "urn:Order" samples.userguide.example5.BeanService
********************************》*
把AXIS_LIB设为正确的本地包路径,再运行“java2wsdl.bat”,
便可以在目录下看到一个文件:“Order.wsdl”,通过这个WSDL文件,可以生成Webservice接口服务的框架,
既可以是服务器端,也可以是客户端框架。其细节,可以参考下一节。
处理的方式与方法:
wsdl2java :
1. 以上为例,把Order.wsdl拷贝过来,在其目录下新建一BAT文件:名为:“wsdl2java.bat”
2. 其内容为:
* wsdl2java.bat *
*《********************************
set AXIS_LIB=C:\axis-1_4\lib
SET CLASSPATH=.;%CLASSPATH%;%AXIS_LIB%\wsdl4j-1.5.1.jar;%AXIS_LIB%\axis.jar;%AXIS_LIB%\jaxrpc.jar;%AXIS_LIB%\saaj.jar;%AXIS_LIB%\commons-discovery-0.2.jar;%AXIS_LIB%\commons-logging-1.0.4.jar
java org.apache.axis.wsdl.WSDL2Java Order.wsdl
********************************》*
或者有另外的作法:把服务端的应用启动,直接写成:
“
java org.apache.axis.wsdl.WSDL2Java http://localhost:8080/axis/services/OrderProcessor?wsdl
”
保存好后,运行这个BAT文件,
便会自动生成:
BeanService_pkg\
BeanService.java
BeanServiceService.java
BeanServiceServiceLocator.java
OrderProcessorSoapBindingStub.java
Order.java
ok.
来自:http://blackskin126.bokee.com/viewdiary.14630183.html
1. http://ws.apache.org/Axis/下载 axis-1_2_1 解压放在 D:\softSetup\下
dl.bitsCN.com网管软件下载
2.下载 apache-ant-1.6.1 解压放在D:\softSetup\下 bitsCN全力打造网管学习平台
3.环境变量设置:
需要什么来搜一搜吧so.bitsCN.com
JAVA_HOME=C:\jdk1.5.0_06
CATALINA_HOME=tomcat-5.5.15
ANT_HOME=D:\softSetup\apache-ant-1.6.1
AXISCLASSPATH=%AXIS_LIB%\activation.jar;%AXIS_LIB%\mail.jar;%AXIS_LIB%\axis.jar;%AXIS_LIB% \wsdl4j.jar;%AXIS_LIB%\axis-ant.jar;%AXIS_LIB%\commons-discovery-0.2.jar;%AXIS_LIB%\commons-logging-1.0.4.jar;%AXIS_LIB%\jaxrpc.jar;%AXIS_LIB%\saaj.jar;%AXIS_LIB%\log4j-1.2.8.jar;%AXIS_LIB%\xerces.jar;%AXIS_LIB%\junit.jar;%AXIS_LIB%\wsdl4j-1.5.1.jar
AXIS_HOME=D:\softSetup\axis-1_2_1
AXIS_LIB=%AXIS_HOME%\lib
CATALINA_HOME=D:\softSetup\jakarta-tomcat-5.0.24
classpath=.;%JAVA_HOME%\lib\dt.jar;%JAVA_HOME%\lib\tools.jar;%AXISCLASSPATH%
path=%JAVA_HOME%\bin;%JAVA_HOME%\jre\bin;%CATALINA_HOME%\bin;%ANT_HOME%\bin so.bitsCN.com网管资料库任你搜
4.在命令行 运行set 确保新加的环境变量生效
bitsCN.com中国网管联盟
5.根据合作伙伴给的wsdl地址 http://www.****.com/services/OrderService?wsdl保存下来到D:\project\test\wsdl\OrderService.wsdl 需要什么来搜一搜吧so.bitsCN.com
6.在命令行 切换到 D:\project\test\wsdl\下运行axis的WSDL2Java 命令: java org.apache.axis.wsdl.WSDL2Java OrderService.wsdl 生成 bean 文件,***Service.java,***ServiceLocator.java,***ServiceSoapBindingStub.java 等文件,可以用Axis的wsdl2java生成web service的客户端,wsdl2java生成的客户端是stub方式的。它包括endpoint借口、实现该接口的stub、 serviceLocator、可选的单元测试代码。其中,serviceLocator中hard code了服务端地址.
so.bitsCN.com网管资料库任你搜
7. 应用.写一个表单jsp,提交到下面jsp文件进行处理(可以写在类里,此处简单处理) play.bitsCN.com累了吗玩一下吧
<%@ page contentType="text/html; charset=GBK"%>
<%@page import="org.apache.axis.client.Call"%>
<%@page import="javax.xml.namespace.QName"%>
<%@page import="java.net.MalformedURLException"%>
<%@page import="java.rmi.RemoteException"%>
<%@page import="java.util.*"%>
<%@page import="java.net.URL"%>
<%@page import="org.apache.axis.client.Service"%>
<%@page import="com.newSky.datainterface.beans.*"%>
<%!
dl.bitsCN.com网管软件下载
private final static String success = "测试完成";
private final static String fail = "测试失败:";
final static String endPoint = "http://www.***.com/services/OrderService";
final static String portName = "addNewOrder";
final static String nameSpace = "http://beans.datainterface.newSky.com";
%>
<html>
<head></head>
<body>
<%
try {
Call call = null;
URL url = null;
try {
//create new url
url = new URL(endPoint);
}
catch (MalformedURLException e) {
System.out.println(fail + e.getMessage());
e.printStackTrace();
}
//create new service
Service service = new Service();
try {
//create new call 需要什么来搜一搜吧so.bitsCN.com
call = (Call) service.createCall();
}
catch (Exception se) {
System.out.println(fail + se.getMessage());
se.printStackTrace();
}
//设置服务器
call.setTargetEndpointAddress(url);
//设置端口
call.setOperationName(new QName(endPoint, portName));
//***********************
//注册类,开始
try {
QName qn1 = new QName(nameSpace, "OrderUserData");
call.registerTypeMapping(OrderUserData.class, qn1,
new org.apache.axis.encoding.ser.BeanSerializerFactory(OrderUserData.class, qn1),
bbs.bitsCN.com国内最早的网管论坛
new org.apache.axis.encoding.ser.BeanDeserializerFactory(OrderUserData.class, qn1));
}
catch (Exception EQ) {
EQ.printStackTrace();
}
//注册类,结束
//设置返回类型
// set bean 此处省略。。
try {
//调用服务
System.out.println("************* 测试开始 ******************");
call.setUsername(request.getParameter("id"));
String result = (String) call.invoke(new Object[] {new Integer(request.getParameter("id)),
new String(request.getParameter("pwd")), orderData});
so.bitsCN.com网管资料库任你搜
System.out.println(result);
bbs.bitsCN.com国内最早的网管论坛
if(result.equals("-100")){
out.write("用户名密码错误");
}
else{
out.write("成功");
}
System.out.println("************* 测试完成 ******************");
}
catch (RemoteException re) {
System.out.println(fail + re.getMessage());
//re.printStackTrace();
}
}
catch (Exception e) {
// e.printStackTrace();
}
%>
</body>
</html>
bitsCN全力打造网管学习平台
8. ok ^_^ bitsCN全力
来自:http://www.bitscn.com/java/webservice/200611/82110.html
概述
本文介绍了一个比较简单实用的基于Java的SOAP引擎——Apache组织推出的Axis——的安装、配置和应用开发方法,希望对有兴趣做基于Java的Web Services应用开发的朋友有所帮助。
Axis简介
Axis是Apache组织推出的SOAP引擎,Axis项目是Apache组织著名的SOAP项目的后继项目,目前最新版本是采用Java开发的1.1版本,C++的版本正在开发之中。Axis v1.1软件包可以从http://ws.apache.org/axis/dist/1_1/下载得到。
Axis的安装
应用Axis开发Web Services,你需要有一个支持Servlet的服务器引擎,比如广为人知的Tomcat(Tomcat也是由Apache组织所提供的,目前的最新版本为4.1.24,下载地址为http://jakarta.apache.org/builds/jakarta-tomcat-4.0/release/v4.1.24/)。在此之前当然你机器必须已经装好了JDK1.3以上的版本,当安装好Tomcat之后,只需将下载的Axis软件包解压缩,将其中的“webapps”目录下的“axis”目录整个拷贝到Tomcat安装目录下的“webapps”目录下即可。
Axis的配置
Axis基于Java开发,可以部署于多种操作系统,使用前需要配置一系列的系统变量,在此假定你已经在本机上装好了Tomcat 4.0以上的版本,需要配置的系统变量如下表所示:
CATALINA_HOME
C:\Tomcat_4_1
(此处应为Tomcat的安装位置,注意路径名中不要有空格)
AXIS_HOME
%CATALINA_HOME%\webapps\axis
AXIS_LIB
%AXIS_HOME%\lib
AXISCLASSPATH
%AXIS_LIB%\axis.jar;%AXIS_LIB%\commons-discovery.jar; %AXIS_LIB%\commons-logging.jar;%AXIS_LIB%\jaxrpc.jar; %AXIS_LIB%\saaj.jar;%AXIS_LIB%\log4j-1.2.8.jar; %AXIS_LIB%\xml-apis.jar;%AXIS_LIB%\xercesImpl.jar
如果你不愿做这么繁琐的类路径设置,可以直接将axis软件包中“lib”目录下的所有.jar文件加入到系统环境变量CLASSPATH中即可。
Axis的测试
安装配置完毕后,应测试一下是否Axis可以正确运行了。
启动Tomcat服务器,在浏览器中访问http://localhost:8080/axis/happyaxis.jsp,如果页面显示有错误,则需要回头检查一下相关配置是否正确,如果浏览页面能正确显示出系统组件、属性等参数配置信息,则表示安装成功,如下图所示:
现在可以开始开发你的Web Services应用了。
作者:飞鹰出处:yesky责任编辑: 方舟 [ 2003-08-21 16:50 ]
本文介绍了一个比较简单实用的基于Java的SOAP引擎的安装、配置和应用开发方法
服务的发布 Axis提供了两种服务发布方式,一种是即时发布(Instant Deployment),一种是定制发布(Custom Deployment)。
使用即时发布
对即时发布的支持是Axis的特色之一,使用即时发布使用户只需有提供服务的Java类的源代码,即可将其迅速发布成Web服务。每当用户调用这类服务的时候,Axis会自动进行编译,即使服务器重启了也不必对其做任何处理,使用非常简单快捷。
使用即时发布首先需要一个实现服务功能的Java源文件,将其扩展名改为.jws(Java Web Service的缩写),然后将该文件放到“……\webapps\axis”目录下即可。
在此给出一个从英里到公里的长度单位转换的服务,其源码如下:
文件Distance.jws
/**
* @author 飞鹰
*/
public class Distance
{
public double convertMile2Kilometre( double mile )
{
//实现英里到公里的距离转换
return mile * 1.609;
}//convertMile2Kilometre()
}/* Distance */
将其放到“……\webapps\axis”目录,通过访问http://localhost:8080/axis/Distance.jws?wsdl可以看到这个服务的WSDL描述文件,这说明Distance服务被成功发布了。如下图所示:
使用定制发布
即时发布是一项令人激动的技术,它使Web服务的开发变得如此简单;然而即时发布并不总是最好的选择,比如有些应用系统是第三方提供的,我们没有购买源代码,只有.class文件,但我们又希望将这个应用系统的一些功能对外发布成Web服务,使其能够在更大范围内产生作用,这个时候即时发布技术就无能为力了。此外,即时发布技术并不灵活,无法进行更多的服务配置,这使得它并不能满足一些特定系统的需求。
因此,Axis提供了另一种服务发布方式,这就是定制发布。
在此给出一个从加仑到升的容积单位转换的服务,其源码如下:
文件Capacity.java
package samples.capacity;
/**
* @author 飞鹰
*/
public class Capacity
{
public double convertGallon2Litre( double gallon )
{
//实现加仑到升的容积转换
return gallon * 4.546;
}//convertGallon2Litre()
}/* Capacity */
将其编译成.class文件,放置到“……\webapps\axis\samples\capacity”目录下,即可着手进行发布。
定制发布不需要构建.jws文件,但必须创建服务发布描述文件deploy.wsdd(Web Service Deployment Descriptor的缩写),这个文件负责描述服务的名称、入口等信息,其内容如下:
文件deploy.wsdd
<deployment xmlns="http://xml.apache.org/axis/wsdd/"
xmlns:java="http://xml.apache.org/axis/wsdd/providers/java">
<service name="Capacity" provider="java:RPC">
<parameter name="className" value="samples.capacity.Capacity"/>
<parameter name="allowedMethods" value="*"/>
</service>
</deployment>
将该文件也放到“……\webapps\axis\samples\capacity”目录下,然后可以采用Axis提供的一个客户端管理工具——AdminClient来完成服务的定制发布。
在“……\webapps\axis\samples\capacity”目录下,运行:
java -cp %AXISCLASSPATH% org.apache.axis.client.AdminClient deploy.wsdd
可以看到以下运行结果:
Processing file deploy.wsdd
<Admin>Doneprocessing</Admin>
这表明Capacity服务定制发布完成。
通过访问http://localhost:8080/axis/services/Capacity?wsdl可以看到这个服务的WSDL描述文件,这说明Capacity服务被成功发布了。如下图所示:
作者:飞鹰出处:yesky责任编辑: 方舟 [ 2003-08-21 16:50 ]
本文介绍了一个比较简单实用的基于Java的SOAP引擎的安装、配置和应用开发方法
服务的访问 GET方式的服务访问 一般的SOAP消息都是采用POST方式实现传递,但也可以通过GET方式来访问。比如以下给出的一个服务——“HelloWorld”,其源码如下:
文件HelloWorld.jws
/**
* @author 飞鹰
*/
public class HelloWorld
{
public String helloWorld()
{
//在服务器端打印输出
System.out.println( "Hello World!" );
//返回相应字符串
return "Hello World!";
}//helloWorld()
}/* HelloWorld */
这个服务给出一个名位“helloWorld”的无入口参数的操作,返回一个内容为“Hello World!的字符串”,同时在服务器端打印“Hello World!”,将该文件放到“……\webapps\axis”目录下,即可通过GET方法直接访问该服务,访问的地址为http://localhost:8080/axis/HelloWorld.jws?method=helloWorld,可以看到返回的SOAP信封消息,同时服务器端给出了相应的显示信息“Hello World!”这表明HelloWorld服务被成功访问了。如下图所示:
客户端服务访问编程
Axis提供了一套API来实现SOAP,从http://localhost:8080/axis/docs/apiDocs/index.html可以看到Axis的API文档。
其中,org.apache.axis.client.Call和org.apache.axis.client.Service是两个比较常用的类,一般的客户端程序欲访问一个Web Service时,都要生成一个客户端的Service对象和Call对象,在访问服务之前,首先要对Call对象设置相应的参数,包括服务的位置、操作名、入口参数、返回值类型等,最后调用Call对象的invoke方法访问服务。
以下给出了一个客户端访问Web服务的例程——AXISTest.java:
文件AXISTest.java
package axisexercise;
import org.apache.axis.client.Call;
import org.apache.axis.client.Service;
import org.apache.axis.encoding.XMLType;
import javax.xml.rpc.ParameterMode;
/**
* @author 飞鹰
*/
public class AXISTest
{
public static void main( String[] args ) throws Exception
{
Service service = new Service();
Call call = ( Call ) service.createCall();
//////////访问即时发布的Distance服务
//设置访问点
call.setTargetEndpointAddress( "http://localhost:8080/axis/Distance.jws" );
//设置操作名
call.setOperationName( "convertMile2Kilometre" );
//设置入口参数
call.addParameter( "op1", XMLType.XSD_DOUBLE, ParameterMode.IN );
call.setReturnType( XMLType.XSD_DOUBLE );
Double d1 = new Double( 190 );
//调用服务
System.out.println( d1 + " 英里相当于 " +
call.invoke( new Object[] {d1} ) + " 公里!" );
//////////访问定制发布的Capacity服务
call = ( Call ) service.createCall();
//设置访问点
call.setTargetEndpointAddress( "http://localhost:8080/axis/services/Capacity" );
//设置操作名
call.setOperationName( "convertGallon2Litre" );
//设置入口参数
call.addParameter( "op1", XMLType.XSD_DOUBLE, ParameterMode.IN );
call.setReturnType( XMLType.XSD_DOUBLE );
d1 = new Double( 10.00 );
//调用服务
System.out.println( d1 + " 加仑相当于 " +
call.invoke( new Object[] {d1} ) + " 升!" );
} //main()
}/* AXISTest */
编译运行后运行可以看到以下的结果:
190.0英里相当于305.71公里!
10.0加仑相当于45.46升!
注意程序在访问即时发布的Distance服务和定制发布的Capacity服务时的不同,前者的服务访问点地址为http://localhost:8080/axis/HelloWorld.jws,而后者的则为http://localhost:8080/axis/services/Capacity。
来自:http://hi.baidu.com/zxhcloth/blog/item/bb8637dbf28e0b67d0164ea5.html
在windows 2000,XP 下通过mod_jk2.so整合Tomcat5.0 和 Apache2.0
------- dreamsky15(阿贤) 原创
准备工作:
分别到www.sun.com 和 www.apache.org 下载
JDK1.4 : j2sdk-1_4_2_04-windows-i586-p.exe
Tomcat5 : jakarta-tomcat-5.0.14.exe
apache2:apache_2.0.48-win32-x86-no_ssl.exe
jk2 : jakarta-tomcat-connectors-jk2.0.4-win32-apache2.0.49.zip
版本可能有所更新。
1.安装JDK1.4,指定安装在 C:\JDK1.4目录下;
2.确认80和8080端口不被占用,特别是IIS是否占用80端口,否则要修改端口设置;
3.安装Tomcat5.0,指定安装在C:\Tomcat5.0目录下,
指定JAVA虚拟机目录为刚才安装的 C:\JDK1.4;
4.安装apache2,指定安装在 C:\ 根目录下,那么它自己会自动创建Apache2目录,
得到 C:\Apache2 最终目录;
5.设置windows系统环境变量中的系统变量:
path:
C:\JDK1.4\bin;C:\JDK1.4\jre\bin;
classpath:
C:\JDK1.4;C:\JDK1.4\lib;C:\JDK1.4\lib\dt.jar;C:\JDK1.4\lib\tools.jar;C:\Tomcat5.0\common\lib\servlet-api.jar;C:\Tomcat5.0\common\lib\tools.jar;
6.重启电脑
7.用浏览器访问
http://localhost/ 和 http://localhost:8080/
两个网站,它们分别是apache和Tomcat的默认首页;
如果不成功则要重新检查设置;
8.解压 jakarta-tomcat-connectors-jk2.0.4-win32-apache2.0.49.zip
9.在解压文件的 doc\mod_jk2 目录下有 INSTALL.txt 英文文档教你安装,你可以作为参照。
10.在解压文件的 modules 目录下有 mod_jk2.so 文件,将其复制到 C:\Apache2\modules;
11.在解压文件的 conf 目录下有 workers2.properties.sample文件,将其复制到 C:\Apache2\conf 目录下,将文件名改为workers2.properties,增加两行:
[uri:/*.jsp]
group=lb
这表明要Tomcat解释所有以 jsp 为后缀的文件。
增加
[uri:/servlet/*]
group=lb
这表明要Tomcat解释/servlet/目录下的所有文件,
所以所有servlet最好映射到 /servlet/ 路径下,其他的文件不要放到这个目录下。
(注:tomcat中所有没有在 web.xml 中注册的 servlet默认映射到 /servlet/ 路径下。
但前提条件是你要修改tomcat的 web.xml ,去掉两处 <servlet-name>invoker</servlet-name>的注释,来激活这个功能。)
这样做,是为了令到Tomcat专职解释所有 jsp 和 servlet ,而将 html,txt等类型的文件交给强大的Web服务器——apache解释,各司其职,分担Tomcat的压力。
12.备份好C:\Apache2\conf\httpd.conf防止不测,修改 C:\Apache2\conf\httpd.conf 文件,原文件有很多行LoadModule,
在其后增加一行:
LoadModule jk2_module modules/mod_jk2.so
这个在 INSTALL.txt 英文文档里有说;
找到 DocumentRoot "C:/Apache2/htdocs" ,修改为你指定的根目录
DocumentRoot "C:/Tomcat5.0/webapps"
正反斜杠无所谓,最好用 / ;
同样找到<Directory "C:/Apache2/htdocs">
修改为<Directory "C:/Tomcat5.0/webapps">
找到 DirectoryIndex index.html index.html.var
在后面增加 index.jsp 使得apache将index.jsp也作为默认首页。
13.将原来 <VirtualHost *:80> 相关的设置注释去掉,自定义你的实际参数;
其中
DocumentRoot /www/docs/dummy-host.example.com
改为DocumentRoot "C:/Tomcat5.0/webapps"
将 AddDefaultCharset ISO-8859-1 改为
AddDefaultCharset gb2312
使得apache默认是简体中文。
14.
启动Tomcat5.0,apache2
你会看到apache service monitor 控制台窗口下的状态栏文字由原来的
Apache/2.0.48 (Win32)
变为
Apache/2.0.48 (Win32) mod_jk2/2.0.4
分别访问 http://localhost/jsp-examples/ 和
http://localhost:8080/jsp-examples/
测试其中的jsp例子,如果都能正确运行,证明配置成功!!!
恭喜你! :)
有错误或疑问,请多多交流。
来自:
http://blog.csdn.net/dreamsky15/archive/2004/10/11/132261.aspx