请解释何为"实相",有哪些分类?并辨析其与法界是否相同

胜义谛和法界实相
主题: 胜义谛和法界实相 &(阅读 1139 次)
0 会员 以及 1 访客 正在阅读本主题.
于: 十一月 19, :34 上午 »
顶礼上师三宝各位大德道友好上师在中观庄严论中说:无论佛出世还是不出世,法界实相无有任何变化。而胜义谛是圣者入定时现见到的法界实相。请问胜义谛和法界实相是什么关系?感恩
帖子: 3451
« 回复 #1 于: 十一月 19, :52 上午 »
都是以言说来勉强表铨一下不可言说、不可思议的解脱境界, 类似还有如来藏、一真法界、真如等等。此法界实相不是靠思择、言说能得,而是靠自己证悟,于证悟法性者,随顺名言而说是圣者现见,而真见是无见而见。
以无我 无人 无众生 无寿者修一切善法& 即得阿耨多罗三藐三菩提
« 回复 #2 于: 十一月 19, :21 上午 »
感恩无中生有师兄的回复。按照您的解释,胜义谛是和法界实相一致的?可是胜义谛是和世俗谛观待的,最后也要消融与无二法界?
帖子: 3451
« 回复 #3 于: 十一月 19, :54 上午 »
我们所言的法界实相、如来藏、胜义谛、真如、一真法界、佛性、本性、大空性等等本来都是一些观待意识的心所法,都是在相对层面的有法,这些假名的施设仅仅是为我们描述一下法界实相的境界而已,都是有漏的法、无常的法,证悟胜义时,它们都将无余消于法界。之所以佛菩萨们还要如是说这些名相,一个必要就是起到导引作用,犹如以见月亮为目的上师手臂的指示一样。宗萨仁波切还如是做了个比喻:如果你必须找一个从未见过的人,认识那个人的朋友可以为你描述他,或给你一张照片。当然,你绝不会把相片当成真人,你会利用这张相片,在你碰到那个人的时候,就可以认出他了。同样地,佛教老师们试着给你绝对真理的概念化模型,帮助你在见到它的时候认出它来。所以说,法界不是描述的言说乃至每个名词,见法界唯是靠自心证悟的境界。
« 最后编辑时间: 十一月 19, :35 上午 作者 无中生有 »
以无我 无人 无众生 无寿者修一切善法& 即得阿耨多罗三藐三菩提
0 && this.options[this.selectedIndex].value) window.location.href = smf_scripturl + this.options[this.selectedIndex].value.substr(smf_scripturl.indexOf('?') == -1 || this.options[this.selectedIndex].value.substr(0, 1) != '?' ? 0 : 1);">
请选择一个目的地:
-----------------------------
-----------------------------
=> 意见建议区
-----------------------------
-----------------------------
=> 分类查询区
=> 基础课程
===> 亲友书
===> 佛子行三十七颂
===> 二规教言论
=> 入菩萨行论学习专区
=> 净土法门学习专区
===> 阿弥陀佛修法
=> 大圆满前行引导文
=> 五部大论学习专区
===> 因明论学习专区
-----------------------------
-----------------------------
=> 智悲讲堂
=> 网络共修小组组织区
===> 组长交流区
===> 加行组
===> 净土组
===> 闻思A组
===> 闻思B组
===> 2011年7月新班组织区
=====> 加行新班
=====> 净土新班
=====> 闻思B组新班
===> 2011年12月新班组织区
=====> 2011年12月加行组新班
=====> 2011年12月净土组新班
=====> 2011年12月闻思B组新班
-----------------------------
-----------------------------
=> 综合交流区
=> 慈慧之家
-----------------------------
-----------------------------
===> 学会共修小组组织区
=====> 欧洲小组
=======> 欧洲组2011年12月新班-入行论组
=======> 欧洲组2012年12月新班组织区
=======> 欧洲组2013年6月新班
=======> 欧洲组2012年12月新班-加行组
=======> 欧洲组2012年12月新班-入行论组
=====> 美国小组
=======> 地方组
=========> 西雅图小组
=========> 洛杉矶小组
=========> 北加州San Jose组(2012-6月预科班-入行论组)
=======> 网络组
=========> 基础课程
=========> 前行
=========> 净土
=========> 闻思A
=========> 闻思B《入行论》
=========> 2011年12月净土班
=========> 2012-6月预科班-加行组
=======> 英语研讨班
=====> 大洋洲小组
=======> 新西兰小组
=======> 澳洲菩提学会网络共修组
论坛所讨论的话题和语言不代表本站立场I am doing a smoke test against a yarn cluster using yarn-cluster as the master with the SparkPi example program.
Here is the command line:
$SPARK_HOME/bin/spark-submit --master yarn-cluster
--executor-memory 8G --executor-cores 240 --class org.apache.spark.examples.SparkPi
examples/target/scala-2.11/spark-examples-1.4.1-hadoop2.7.1.jar
The yarn accepts the job but then complains about a "bad substitution".
Maybe it is on the hdp.version ??
15/09/01 21:54:05 INFO yarn.Client: Application report for application_1_0013 (state: ACCEPTED)
15/09/01 21:54:05 INFO yarn.Client:
client token: N/A
diagnostics: N/A
ApplicationMaster host: N/A
ApplicationMaster RPC port: -1
queue: default
start time: 6
final status: UNDEFINED
tracking URL: http://yarnmaster-8245.lvs01.:8088/proxy/application_1_0013/
user: stack
15/09/01 21:54:06 INFO yarn.Client: Application report for application_1_0013 (state: ACCEPTED)
15/09/01 21:54:10 INFO yarn.Client: Application report for application_1_0013 (state: FAILED)
15/09/01 21:54:10 INFO yarn.Client:
client token: N/A
diagnostics: Application application_1_0013 failed 2 times due to AM Container for appattempt_1_ exited with
exitCode: 1
For more detailed output, check application tracking page:http://yarnmaster-8245.lvs01.:8088/cluster/app/application_1_0013Then, click on links to logs of each attempt.
Diagnostics: Exception from container-launch.
Container id: container_e03_1_001
Exit code: 1
Exception message: /mnt/yarn/nm/local/usercache/stack/appcache/
application_1_0013/container_e03_1_001/
launch_container.sh: line 24: $PWD:$PWD/__hadoop_conf__:$PWD/__spark__.jar:$HADOOP_CONF_DIR:
/usr/hdp/current/hadoop-client/*::$PWD/mr-framework/hadoop/share/hadoop/tools/lib/*:
/usr/hdp/${hdp.version}/hadoop/lib/hadoop-lzo-.6.0.${hdp.version}.jar:
/etc/hadoop/conf/secure: bad substitution
Stack trace: ExitCodeException exitCode=1: /mnt/yarn/nm/local/usercache/stack/appcache/application_1_0013/container_e03_1_001/launch_container.sh: line 24: $PWD:$PWD/__hadoop_conf__:$PWD/__spark__.jar:$HADOOP_CONF_DIR:/usr/hdp/current/hadoop-client/*:/usr/hdp/current/hadoop-client/lib/*:/usr/hdp/current/hadoop-hdfs-client/*:/usr/hdp/current/hadoop-hdfs-client/lib/*:/usr/hdp/current/hadoop-yarn-client/*:/usr/hdp/current/hadoop-yarn-client/lib/*:$PWD/mr-framework/hadoop/share/hadoop/mapreduce/*:$PWD/mr-framework/hadoop/share/hadoop/mapreduce/lib/*:$PWD/mr-framework/hadoop/share/hadoop/hdfs/lib/*:$PWD/mr-framework/hadoop/share/hadoop/tools/lib/*:/usr/hdp/${hdp.version}/hadoop/lib/hadoop-lzo-0.6.0.${hdp.version}.jar:/etc/hadoop/conf/secure: bad substitution
at org.apache.hadoop.util.Shell.runCommand(Shell.java:545)
at org.apache.hadoop.util.Shell.run(Shell.java:456)
at org.apache.hadoop.util.Shell$ShellCommandExecutor.execute(Shell.java:722)
at org.apache.hadoop.yarn.server.nodemanager.DefaultContainerExecutor.launchContainer(DefaultContainerExecutor.java:211)
at org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:302)
at org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:82)
at java.util.concurrent.FutureTask.run(FutureTask.java:266)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)
at java.lang.Thread.run(Thread.java:745)
Of note here is:
/usr/hdp/${hdp.version}/hadoop/lib/hadoop-lzo-.6.0.${hdp.version}.jar:
/etc/hadoop/conf/secure: bad substitution
The "sh" is linked to bash:
$ ll /bin/sh
lrwxrwxrwx 1 root root 4 Sep
1 05:48 /bin/sh -& bash
解决方案 It is caused by hdp.version not getting substituted correctly. You have to set hdp.version in the file java-opts under $SPARK_HOME/conf.
And you have to set
spark.driver.extraJavaOptions -Dhdp.version=XXX
spark.yarn.am.extraJavaOptions -Dhdp.version=XXX
in spark-defaults.conf under $SPARK_HOME/conf where XXX is the version of hdp.
本文地址: &
我现在用做冒烟测试对纱线集群纱线集群作为与 SparkPi 例如主程序。下面是命令行:
$ SPARK_HOME /斌/火花提交--master纱线集群 --executor-8G内存--executor-240核心--class org.apache.spark.examples.SparkPi 例子/目标/斯卡拉2.11 /火花例子-1.4.1-hadoop2.7.1.jar 纱线接受了工作,但随后抱怨一个“坏替代”。也许这是对 hdp.version
15/09/01 21点54分05秒INFO yarn.Client:为application_1_0013申请报告(状态:已接受)15/09/01 21点54分05秒INFO yarn.Client:
客户端令牌:N / A
诊断:N / A
ApplicationMaster主持人:N / A
ApplicationMaster RPC端口:-1
队列:默认
开始时间:6
最终状态:未定义
跟踪网址:http://yarnmaster-8245.lvs01.:8088/proxy/application_1_0013/
用户:堆栈15/09/01 21点54分06秒INFO yarn.Client:为application_1_0013申请报告(状态:已接受)15/09/01 21点54分10秒INFO yarn.Client:为application_1_0013申请报告(状态:失败)15/09/01 21点54分10秒INFO yarn.Client:
客户端令牌:N / A
诊断:应用application_1_0013失败,原因是2倍到AM的容器appattempt_1_,退出code退出:1有关更详细的输出结果,检查应用程序跟踪page:http://yarnmaster-8245.lvs01.:8088/cluster/app/application_1_0013Then,点击链接,每次尝试的日志。诊断:从容器发射例外。容器ID:container_e03_1_001退出code:1异常消息:到/ mnt /纱/纳米/本地/ usercache /堆栈/应用程序缓存/application_1_0013 / container_e03_1_001 /launch_container.sh:第24行:$ PWD:$ PWD / __ __ hadoop_conf:$ PWD / __ __火花罐子:$ HADOOP_CONF_DIR:在/ usr / HDP /电流/ Hadoop的客户端/ * :: $ PWD / MR-框架/ Hadoop的/股/ Hadoop的/ tools / lib目录/ *:/usr/hdp/${hdp.version}/hadoop/lib/hadoop-lzo-.6.0.${hdp.version}.jar:在/ etc / Hadoop的/ conf目录/安全:替代不好堆栈跟踪:退出$ C $退出了CException code = 1: /mnt/yarn/nm/local/usercache/stack/appcache/application_1_0013/container_e03_1_001/launch_container.sh:第24行: $PWD:$PWD/__hadoop_conf__:$PWD/__spark__.jar:$HADOOP_CONF_DIR:/usr/hdp/current/hadoop-client/*:/usr/hdp/current/hadoop-client/lib/*:/usr/hdp/current/hadoop-hdfs-client/*:/usr/hdp/current/hadoop-hdfs-client/lib/*:/usr/hdp/current/hadoop-yarn-client/*:/usr/hdp/current/hadoop-yarn-client/lib/*:$PWD/mr-framework/hadoop/share/hadoop/ma$p$pduce/*:$PWD/mr-framework/hadoop/share/hadoop/ma$p$pduce/lib/*:$PWD/mr-framework/hadoop/share/hadoop/hdfs/lib/*:$PWD/mr-framework/hadoop/share/hadoop/tools/lib/*:/usr/hdp/${hdp.version}/hadoop/lib/hadoop-lzo-0.6.0.${hdp.version}.jar:/etc/hadoop/conf/secure:坏替代
在org.apache.hadoop.util.Shell.runCommand(Shell.java:545)
在org.apache.hadoop.util.Shell.run(Shell.java:456)
在org.apache.hadoop.util.Shell $ ShellCommandExecutor.execute(Shell.java:722)
在org.apache.hadoop.yarn.server.nodemanager.DefaultContainerExecutor.launchContainer(DefaultContainerExecutor.java:211)
在org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:302)
在org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:82)
在java.util.concurrent.FutureTask.run(FutureTask.java:266)
在java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)
在java.util.concurrent.ThreadPoolExecutor中的$ Worker.run(ThreadPoolExecutor.java:617)
在java.lang.Thread.run(Thread.java:745) 请注意这里是: 的/ usr / HDP / $ {} hdp.version $ /hadoop/lib/hadoop-lzo-.6.0 {} hdp.version的.jar:在/ etc / Hadoop的/ conf目录/安全:替代不好 在“sh”的链接到bash的:
$ LL / bin / sh的lrwxrwxrwx 1根根9月4日1 05:48 / bin / sh的 - >庆典 解决方案 这是由 hdp.version 引起了不正确得到取代。你必须设置 hdp.version 文件 Java的OPTS 在 $ SPARK_HOME / conf目录中。 和你必须设置
spark.driver.extraJavaOptions -Dhdp.version = XXXspark.yarn.am.extraJavaOptions -Dhdp.version = XXX 在火花defaults.conf 在 $ SPARK_HOME / conf目录其中XXX是HDP的版本。
本文地址: &
扫一扫关注官方微信

我要回帖

更多关于 用什么理由请假最真实 的文章

 

随机推荐