南开大学复习资料-大数据开发技术(二).docx
《南开大学复习资料-大数据开发技术(二).docx》由会员分享,可在线阅读,更多相关《南开大学复习资料-大数据开发技术(二).docx(43页珍藏版)》请在咨信网上搜索。
《大数据开发技术(上)》课程期末复习资料 一、客观部分:(单项选择、多项选择、不定项选择、判断) (一)、判断部分1 >Spark取代Hadoop仅仅是取代MapReduce这种计算框架,Spark可以取代HDFS吗答案:错2、Spark是Apache基金会的顶级项目答案:对3、Spark在同一个应用中不能同时使用Spark SQL和Ml 1 ib答案:错4、用户可以在Hadoop YARN ±运行Spark答案:对5、用户可以在Apache Mesos _t运行Spark答案:对6、Spark SQL仅仅包括基本的SQL语法答案:错7、Spark SQL包括基本的SQL语法和HiveQL语法答案:对8、Scala是一种纯面向对象的语言,每个值都是对象。答案:对9、Scala是Scalable Language的简写,是一门多范式的编程语言,设计初衷是要集成面向对象编程和函数式编程的各种特性。答案:对10、Scala > Scalable Language的简写,是一门多范式的编程语言,设计初衷 是不包括面向对象编程的特性。答案:错11、Scala是Scalable Language的简写,是一门多范式的编程语言,设计初衷 是不包括函数式编程的特性。答案:错12、Scala其函数不能当成值来使用答案:错13、Scala配备了一种表现型的系统,它以静态的方式进行抽象,以安全和连贯 的方式进行使用。答案:对14、Scala配备了-•种表现型的系统,它以动态的方式进行抽象,以安全和连贯 的方式进行使用。答案:错15、Scala是不可扩展的 答案:错16、Scala中创建一个方法时经常用void表示该方法无返回值 答案:错17、Scala中用Unit表示无值,等同于Java中的void答案:对18、Scala可以通过“var”来定义变量,通过“val”关键字来定义常量答案:对19、Scala可以通过“val”来定义变量,通过“var”关键字来定义常量 答案:错A. 10 B. 11 C. 20 D. 1937、var a=10; for(a<-l until 20) ( printin(a); )共循环了(D)次A. 10 B. 11 C. 20 D. 1938、下列Scala代码应输出(D): var a=0; var b=0 var sum=0; for(a<~l until 3; b<~l until 3) ( suin+=a+b; } println(sum);A. 36 B. 35 C. 11 D. 1239、Scala列表中(B)可以表示为一个空列表A.Nill B.Nil C.List D. None40、Scala中构造列表的两个基本单位是(AC)A. Nil B.Nill C. :: D. List41、Scala列表方法中丢弃前n个元素,并返回新列表的方法是(A)A. drop B. head C. fi 1 ter D. init42、Scala列表方法中输出符号指定条件的所有元素的方法是(C)A. drop B. head C. filter D. init43、Scala列表方法中获取列表的第一个元素的方法是(B)A. drop B. head C. filter D. init44、Scala列表方法中返回所有元素,除了最后一个的方法是(D)A. drop B. head C. filter D. init45、Scala列表方法中将函数应用到列表的所有元素的方法是(B)A. filter B. foreach C. map D. mkString46、Scala列表方法中通过给定的方法将所有元素重新计算的方法是(C)A. filter B. foreach C. map D. mkString47、Scala列表方法中使用分隔符将列表所有元素作为字符串显示的方法是(D)A. filter B. foreach C. map D. mkString48、Scala中(C)方法返回一个列表,包含除了第一个元素之外的其他元素A. head B. init C. tail D. last49、Scala中(B)方法返回一个列表,包含除了最后一个元素之外的其他元素A. head B. init C. tail D. last50、Scala中可以用(BCD)方法来连接两个或多个列表A. :: B. #::: C. List. ::: () D. List, concat ()51、Scala中使用(BD)方法来查看两个集合的交集元素A. Set. concat B. Set. & C. Set. && D. Set. intersect52、Scala中使用(BD)方法来连接两个集合A. append B. ++ C. concat D. Set. ++()53、Scala中(B)方法返回Map所有的keyA. key B. keys C. value D. values 54Scala中(D)方法返回Map所有的valueA. key B. keys C. value D. values55、Scala元组的值是通过将单个的值包含在(A)中构成的小括号B.中括号 C.大括号D.尖括号56、Scala函数组合器可以通过一个函数重新计算列表中所有元素,并且返回一 个相同数目元素的新列表的方法是(A)A. map B. foreach C. flatten D. flatmap57、Scala函数组合器可以通过一个函数重新计算列表中所有元素,但是没有返 回值的方法是(B)A. map B. foreach C. flatten D. flatmap58、Scala函数组合器可以过滤移除使得传入的函数的返Fl值为false的元素的 方法是(A)A. filter B. flatten C. grouby D. flatmap59、Scala函数组合器可以接收一个可以处理嵌套列表的函数,然后把返回结果 连接起来的方法是(D)A. map B. foreach C. flatten D. flatmap60> Scala函数组合器可以把一个二维的列表展开成-个一维的列表的方法是(B)A. filter B. flatten C. grouby D. flatmap6kScala函数组合器可以对集合中的元素进行分组操作,结果得到的是一个Map 的方法是(C)A. filter B. flatten C. grouby D. fl at map62、Scala使用(A)关键字来继承一个类A. extends B.override C.extend D. overrides63、Scala中重写一个非抽象方法必须使用(B)修饰符。 A. extends B.override C.extend D. overrides64、Scala可以使用(A)关键字实现单例模式A. object B. static C. private D. public65、RDD是一个(BCD)的数据结构可读写B.只读的C.容错的D.可进行并行操作的66、以下哪个方法可以从集合中创建RDD (AB)A. parallelize B. makeRDD C. textFile D. loadFile67、以下哪个方法可以从外部存储中创建RDD (C)A.parallelize B. makeRDD C.textFile D. loadFile68、以下哪个方法可以创建RDD (ABC)A. parallelize B. makeRDD C. textFile D. loadFile69、Spark可以通过哪些外部存储创建RDD ( ABCD )文本文件B.目录C.压缩文件D.通配符匹配的文件70、RDD的(C)操作通常用来划分单词A. filter B. union C. flatmap D. mapPartitions71、以下哪个函数可以对RDD进行排序(A)A. sortBy B. filter C.distinct D. intersection72、以下哪个函数可以对RDD进行过滤(B)A. sortBy B. filter C. distinct D. intersection73、以下哪个函数可以对RDD进行去重(C)A.sortBy B. filter C. distinct D. intersection74、以下哪个函数可以对两个RDD进行合并(A)A. union B. substract C. intersection D. cartesian75、以下哪个函数可以求两个RDD差集(B)A. union B. substract C. intersection D. cartesian76、以下哪个函数可以求两个RDD交集(C)A. union B. substract C. intersection D. cartesian77、以下哪个函数可以求两个RDD的笛卡尔积(D)A. union B. substract C. intersection D. cartesian78、PairRDD的(A)方法,可以把两个RDD中键相同的元素组合在一起,合并为一个 RDDoA. join B. union C. substract D. intersection 79、当需要将一个普通的RDD转化为一个PairRDD时可以使用(C)函数来进行 操作A. transfer B. change C. map D. build80、PairRDD可以通过(B)获得仅包含键的RDDA. key B. keys C. value D. values81、PairRDD可以通过(D)获得仅包含值的RDDA. key B. keys C. val ue D. val ues82、PairRDD中(A)函数可以合并具有相同键的值A. mapValucs B. groupBy C. groupByKcy D. rcduceByKey83、PairRDD中(C)函数可以对具有相同键的值进行分组A. mapValues B. groupBy C. groupByKey D. reduceByKey84、PairRDD中(BC)函数可以进行分组A. mapValues B. groupBy C. groupByKey D. reduceByKey 85、请问RDD的(A)操作是根据键对两个RDD进行内连接A. join B. zip 83、PairRDD中(C)函数可以对具有相同键的值进行分组A. mapValues B. groupBy C. groupByKey D. reduceByKey84、PairRDD中(BC)函数可以进行分组A. mapValues B. groupBy C. groupByKey D. reduceByKey 85、请问RDD的(A)操作是根据键对两个RDD进行内连接A. join B. zip 83、PairRDD中(C)函数可以对具有相同键的值进行分组A. mapValues B. groupBy C. groupByKey D. reduceByKey84、PairRDD中(BC)函数可以进行分组A. mapValues B. groupBy C. groupByKey D. reduceByKey 85、请问RDD的(A)操作是根据键对两个RDD进行内连接A. join B. zip A. join B. zip A. join B. zip A. join B. zip 86、请问RDD的 A. join B. zip C.combineByKey D.collect 87、请问RDD的 (C)操作用于将相同键的数据聚合 C. combineByKey D. collect (B)操作是将两个RDD组合成Key/Value形式的RDD A. join B. zip 88、请问RDD的 A. join B. zip 89、请问RDD的 C. combineByKey D.collect (D)操作把RDD所有元素转换成数组并返回到Driver端C.combineByKey D. collect (D)操作作用于K-V类型的RDD上,返回指定K的所有V值A. search B. find C. findByKey D. lookup90、请问RDD的(A)操作用来计算RDD中所有元素个数A. count B. num C. length D. number91、Spark支持的文件格式包括(ABCD)A.文本文件 B. JSON C. CSV D. SequenceFile92、spark-submit配置项中(A)表示Driver程序使用的内存大小A.一driver-memory MEMB.—executor-memory MEMC. 一total-executor-cores NUM D. 一一executor-coures NUM93> spark-submit配置项中(B)表示executor内存大小A. ―num-executors NUMB. ―executor-memory MEMC. —total-executor-cores NUM D. —executor-coures NUM94、spark-submit配置项中(C)表示executor使用的总核数A. --num-executors NUMB. ―executor-memory MEMC. ―total-executor-cores NUM D, 一一executor-coures NUM95> spark-submit配置项中(A)表示启动的executor数量A. —num-executors NUMB. —executor-memory MEMC, ―total-executor-cores NUM D. ―executor-coures NUM96、spark-submit配置项中(D)表示每个executor使用的内核数A, —num-executors NUM B. --executor-memory MEMC. ―total-executor-cores NUM D. 一一executor-coures NUM97、Spark中的每个RDD —般情况下是由(C)个分区组成的A.O B. 1 C.多 D.无数98、Spark的RDD持久化操作有(AB)方式A. cache B. presist C. storage D. long99、如果numPartitions是分区个数,那么Spark每个RDD的分区ID范围是(B)A. [0, numPartitions] B. [0, numPartitions-1]C. [1, numPartitions-1] D. [1,numPartitions]100、以下哪种方法可以让Spark不自定义分区也能对任何类型RDD简单重分区 (BD)A. resetpartition B. reparti ton C. Partition D. coalesce101、Spark SQL 可以处理(ABCD)A. RDD B. Parquet 文件 C. JSON 文件 D. Hive 表102、以下哪个方法可以实现Spark SQL对数据的查询(AC)A. SqlContext B. MySQLContext C. HiveContext D. context103、Spark 创建 DataFrame 对象方式有(ABCD)A.结构化数据文件B.外部数据库C. RDD D.Hive中的表104> Spark SQL可以通过(AB)方法加载json文件为DataFrameA. format B. json C. get D. read105、Spark DataFrame中(ABCD)方法可以获取若干行数据A. first B. head C. take D. collect 106^ Spark DataFrame中(AD)方法可以获取所有数据A. collect B. take C. takeAsList D. collectAsList 107、Spark DataFrame中(AB)方法可以返回一个Array对象A.collect B. take C. takeAsList 0.collectAsList 108^ Spark DataFrame 中(CD )方法可以返回一个 ListA. collect B. take C. takeAsList D. collectAsList109、 Spark 中 DataFrame 的 104> Spark SQL可以通过(AB)方法加载json文件为DataFrameA. format B. json C. get D. read105、Spark DataFrame中(ABCD)方法可以获取若干行数据A. first B. head C. take D. collect 106^ Spark DataFrame中(AD)方法可以获取所有数据A. collect B. take C. takeAsList D. collectAsList 107、Spark DataFrame中(AB)方法可以返回一个Array对象A.collect B. take C. takeAsList 0.collectAsList 108^ Spark DataFrame 中(CD )方法可以返回一个 ListA. collect B. take C. takeAsList D. collectAsList109、 Spark 中 DataFrame 的 104> Spark SQL可以通过(AB)方法加载json文件为DataFrameA. format B. json C. get D. read105、Spark DataFrame中(ABCD)方法可以获取若干行数据A. first B. head C. take D. collect 106^ Spark DataFrame中(AD)方法可以获取所有数据A. collect B. take C. takeAsList D. collectAsList 107、Spark DataFrame中(AB)方法可以返回一个Array对象A.collect B. take C. takeAsList 0.collectAsList 108^ Spark DataFrame 中(CD )方法可以返回一个 ListA. collect B. take C. takeAsList D. collectAsList109、 Spark 中 DataFrame 的 A. collect B. take C. takeAsList D. collectAsList 107、Spark DataFrame中(AB)方法可以返回一个Array对象A.collect B. take C. takeAsList 0.collectAsList 108^ Spark DataFrame 中(CD )方法可以返回一个 ListA. collect B. take C. takeAsList D. collectAsList109、 Spark 中 DataFrame 的 A. collect B. take C. takeAsList D. collectAsList 107、Spark DataFrame中(AB)方法可以返回一个Array对象A.collect B. take C. takeAsList 0.collectAsList 108^ Spark DataFrame 中(CD )方法可以返回一个 ListA. collect B. take C. takeAsList D. collectAsList109、 Spark 中 DataFrame 的 A. collect B. take C. takeAsList D. collectAsList 107、Spark DataFrame中(AB)方法可以返回一个Array对象A.collect B. take C. takeAsList 0.collectAsList 108^ Spark DataFrame 中(CD )方法可以返回一个 ListA. collect B. take C. takeAsList D. collectAsList109、 Spark 中 DataFrame 的 A. collect B. take C. takeAsList D. collectAsList109、 Spark 中 DataFrame 的 A. collect B. take C. takeAsList D. collectAsList109、 Spark 中 DataFrame 的 A. collect B. take C. takeAsList D. collectAsList109、 Spark 中 DataFrame 的 A. collect B. take C. takeAsList D. collectAsList109、 Spark 中 DataFrame 的 109、 Spark 中 DataFrame 的 109、 Spark 中 DataFrame 的 109、 Spark 中 DataFrame 的 109、 Spark 中 DataFrame 的 109、 Spark 中 DataFrame 的 (A)方法是进行条件杳询 A. where B. join C. limit D. apply110、Spark 中 DataFrame 的(C 110、Spark 中 DataFrame 的(C 110、Spark 中 DataFrame 的(C 110、Spark 中 DataFrame 的(C 110、Spark 中 DataFrame 的(C 110、Spark 中 DataFrame 的(C )方法是进行查询前n行记录 A. where B. join C. limit D. apply 111 > Spark中DataFrame的(B)方法是进行连接查询A. where B. join C. limit D. apply112、Spark中DataFrame的(A)方法是进行排序查询A. order by B. group by C. select by D. sort by113^ Spark中DataFrame的(B)方法是进行分组查询A. order by B. group by C. select by D. sort by114、Spark中DataFrame的(ABCD)方法是查询指定字段的数据信息A. select B. selectExpr C. col D. apply115> Spark Streaming 的特点有(BCD)单极性B.可伸缩C.高吞吐量D.容错能力强116^ Spark Streaming 能够和(BCD)无缝集成A. Hadoop B. Spark SQL C. Ml lib D. GraphX117、Spark Streaming能够处理来自(ABCD)的数据A. Kafka B. Flume C. Twitter D. ZeroMQ118、Spark Streming中DStream的每个RDD都是由(B)分割开来的数据集分区B.—小段时间C.数据量D.随机119^ Spark Streming中(C)函数可以对源DStream中的每一个元素应用func 方法进行计算,如果func函数返回结果为true,则保留该元素,否则丢弃该元 素,返回一个新的DstreamA. map B. flatMap C. filter D. union120、Spark Streming中(A)函数可以对源DStream的每个元素通过函数func 返一个新的DStreamA. map B. flatMap C. filter D. union121、Spark Streming d1 (B)函数可以对源DStrcam的每个元素通过函数func 被映射出0或者更多的输出元素A. map B. flatMap C. filter D. union122> Spark Streming中(D)函数可以合并两个DStream,生成一个包含两个DStream中所有元素的新DStream对象A. map B. flatMap C. filter D. union123、Spark St remi ng中(A)函数可以对统计DS t ream中每个RDD包含的元素 的个数,得到一个新的DStreamA. count B. union C. length D. reduce124^ Spark Strcming中(B)函数可以使用func将源DStream中的每个元素进行聚合操作,返回一个内部所包含的RDD只有一个元素的新DStreamD. cogroup 119^ Spark Streming中(C)函数可以对源DStream中的每一个元素应用func 方法进行计算,如果func函数返回结果为true,则保留该元素,否则丢弃该元 素,返回一个新的DstreamA. map B. flatMap C. filter D. union120、Spark Streming中(A)函数可以对源DStream的每个元素通过函数func 返一个新的DStreamA. map B. flatMap C. filter D. union121、Spark Streming d1 (B)函数可以对源DStrcam的每个元素通过函数func 被映射出0或者更多的输出元素A. map B. flatMap C. filter D. union122> Spark Streming中(D)函数可以合并两个DStream,生成一个包含两个DStream中所有元素的新DStream对象A. map B. flatMap C. filter D. union123、Spark St remi ng中(A)函数可以对统计DS t ream中每个RDD包含的元素 的个数,得到一个新的DStreamA. count B. union C. length D. reduce124^ Spark Strcming中(B)函数可以使用func将源DStream中的每个元素进行聚合操作,返回一个内部所包含的RDD只有一个元素的新DStreamD. cogroup A. map B. flatMap C. filter D. union123、Spark St remi ng中(A)函数可以对统计DS t ream中每个RDD包含的元素 的个数,得到一个新的DStreamA. count B. union C. length D. reduce124^ Spark Strcming中(B)函数可以使用func将源DStream中的每个元素进行聚合操作,返回一个内部所包含的RDD只有一个元素的新DStreamD. cogroup A. map B. flatMap C. filter D. union123、Spark St remi ng中(A)函数可以对统计DS t ream中每个RDD包含的元素 的个数,得到一个新的DStreamA. count B. union C. length D. reduce124^ Spark Strcming中(B)函数可以使用func将源DStream中的每个元素进行聚合操作,返回一个内部所包含的RDD只有一个元素的新DStreamD. cogroup 行聚合操作,返回一个内部所包含的RDD只有一个元素的新DStreamD. cogroup 行聚合操作,返回一个内部所包含的RDD只有一个元素的新DStreamD. cogroup 行聚合操作,返回一个内部所包含的RDD只有一个元素的新DStreamD. cogroup D. cogroup D. cogroup D. cogroup D. cogroup D. cogroup A. union B. reduce C. join125、Spark Streming 中(C) 125、Spark Streming 中(C) 125、Spark Streming 中(C) 125、Spark Streming 中(C) 125、Spark Streming 中(C) 125、Spark Streming 中(C) (K, W)键值对时,返回一个(K, 函数当被调用的两个DStream分别含有(K, V)和Seq[V], Seq[W])类型的新的 DStream。 D. cogroup A. union B. reduce C. join 126、Spark Strcming (D)函数当被调用类型分别为(K, V)和(K, W)键值 对的2个DStream时,返回类型为(K, (V, W))键值对的一个新DStream。 A. union B. reduce C. join D. cogroup127、Spark Streming中(A)函数可以通过对源DStream的每RDD应用RDD-to-RDD函数返回一个新的DStream,这可以用来在DStream做任意RDD操作。 A. transform B. reduce C. join D. cogroup128、Dstream窗口操作中(A)方法返回一个基于源DStream的窗口批次计算后 得到新的DStreamoA. window B. countByWindow C. reduceByWindow D. reduceByKeyAndWindow129、Dstream窗口操作中(B)方法返回基于滑动窗口的DStream中的元素的数 日. 里A. window B. countByWindow C. reduceByWindow D. reduceByKeyAndWindow130、Dstream窗口操作中(C)方法基于滑动窗口对源DStream中的元素进行聚 合操作,得到一个新的DstreamA. window B. countByWindow C. reduceByWindow D. reduceByKeyAndWindow131、Dstream窗口操作中(D)方法基于滑动窗口对(K, V)键值对类型的DStream 中的值按K使用聚合函数func进行聚合操作,得到一个新的DstreamA. window B. countByWindow C. reduceByWindow D. reduceByKeyAndWindow132、Dstream输出操作中(A)方法在Driver中打印出DStream中数据的前10 个元素。 A. print B. saveAsTextFiles C. saveAsObjectFiles D. saveAsHadoopFi1es133、Dstream输出操作中(B)方法将DStream中的内容以文本的形式保存为文 本文件A. print B. savcAsTextFiles C. saveAsObjectFiles D. saveAsHadoopFiles 134^ Dstream输出操作中(C)方法在Driver中打印出DStream中数据的前12 个元素。 A. print B. saveAsTextFiles C. saveAsObjectFiles D. saveAsHadoopFiles 135、Dstream输出操作中(D)方法将DStream中的内容按对象序列化并且以 SequenceFi le的格式保存A. print B. saveAsTextFiles C. saveAsObjectFiles D. saveAsHadoopFiles 136^ Dstream输出操作中print方法在Driver中打印出DStream中数据的(C) 元素。 A,第一个B.所有C.前10个D,前100个137、图的结构通常表示为:G(V, E),其中,G表示(A)A.图B.子图C.顶点D.边138、图的结构通常表示为:G(V, E),其中,V是图G中(B)A.顶点B.顶点的集合C.边D.边的集合139、图的结构通常表示为:G(V, E),其中,E是图G中D(D)A.顶点B.顶点的集合C.边D.边的集合140、图是一种数据元素间为(A)关系的数据结构A.多对多 B.一对一 C. 一对多 D.多对一141、在图结构中,每个元素都可以有(B)前驱A.至少一个B.零个或多个C. 一个D.零个142、在图结构中,每个元素都可以有(B)后继A.至少一个 B.零个或多个C. 一个 D.零个143、图结构中如果任意两个顶点之间都存在边,那么称之为(A)A.完全图B.有向完全图C.无向图D.简单图144、图结构中如果任意两个顶点之间都存在有向边,那么称之为(B)A.完全图B.有向完全图C.无向图D.简单图145、图结构中如果无重复的边或者顶点到自身的边,那么称之为(D)A.完全图 B.有向完全图C.无向图D.简单图146、GraphX中Edge边对象存有(ABC)字段A. srcld B. dstld C. attr D. val147、GraphX中(A)是存放着Edg对象的RDDA. RDD[Edge] B. EdgeRDD C. RDD[ (VertexId, VD) ] D. VertexRDD148、GraphX中(B)是完整提供边的各种操作类A. RDD[Edge] B. EdgeRDD C. RDD[ (Vertexld, VD) ] D. VertexRDD149、GraphX中(C)是存放着存放顶点的RDDA. RDD[Edge]B. EdgeRDDC. RDD[(Vertcxld, VD)] D. VertexRDD150、GraphX中(D)是提供顶点的各种操作方法的对象A. RDD[Edge]B. EdgeRDDC. RDD[ (Vertexld, VD) ] D. VertexRDD151、GraphX 中 EdgeRDD 继承自(B)A. EdgeRDD B. RDD[Edge] C. VertexRDD[VD] D. RDD[(Vertexld, VD)]152、GraphX 中 VertexRDD[VD]继承自(D) A. EdgeRDD B. RDD[Edge] C. VertexRDD[VD] D. RDD[(Vertexld, VD)]153、Graph类中如果要根据分开存放的顶点数据和边数据创建图,应该用(A) 方法Graph(vertices, edges, defaultVertexAttr)Graph, fromEdges(RDD[Edge[ED]], defaultValue)Graph. fromEdgeTuples(rawEdges:RDD[(Vertexld, Vertexld)],defaultValue,)GraphLoader. edgeListFile(sc, filename)154、Graph类中如果根据边数据创建图,数据需要转换成RDD[Edgc[ED]类型,应该用(B)方法Graph(vertices, edges, defaultVertexAttr)Graph, fromEdges(RDD[Edge压D]], defaultValue)Graph. fromEdgeTuples(rawEdges:RDD[(Vertexld, V- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 南开大学 复习资料 数据 开发 技术
咨信网温馨提示:
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【二***】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【二***】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【二***】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【二***】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。
关于本文