首页
畅所欲言
友情链接
壁纸大全
数据统计
推荐
工具箱
在线白板
Search
1
职教云小助手重构更新,职教云助手最新版下载地址【已和谐】
13,309 阅读
2
职教云-智慧职教,网课观看分析(秒刷网课)
10,907 阅读
3
gradle-5.4.1-all.zip下载
8,831 阅读
4
职教云-智慧职教,签到补签分析(逆天改命系列)
7,817 阅读
5
一个优秀的程序员从写文档开始:免费领14个月语雀云笔记会员
6,866 阅读
学习笔记
Web
Python
转载文章
算法刷题
JS逆向
综合笔记
安卓
物联网
Java
C
资源收集
软件收藏
网络资源
影视专辑
TED英语角
随便写写
随手拍
登录
/
注册
Search
Lan
累计撰写
623
篇文章
累计收到
612
条评论
首页
栏目
学习笔记
Web
Python
转载文章
算法刷题
JS逆向
综合笔记
安卓
物联网
Java
C
资源收集
软件收藏
网络资源
影视专辑
TED英语角
随便写写
随手拍
页面
畅所欲言
友情链接
壁纸大全
数据统计
推荐
工具箱
在线白板
搜索到
448
篇与
的结果
2020-03-28
试题 算法提高 成绩排名
资源限制时间限制:1.0s 内存限制:256.0MB问题描述 小明刚经过了一次数学考试,老师由于忙碌忘记排名了,于是老师把这个光荣的任务交给了小明,小明则找到了聪明的你,希望你能帮他解决这个问题。输入格式 第一行包含一个正整数N,表示有个人参加了考试。接下来N行,每行有一个字符串和一个正整数,分别表示人名和对应的成绩,用一个空格分隔。输出格式 输出一共有N行,每行一个字符串,第i行的字符串表示成绩从高到低排在第i位的人的名字,若分数一样则按人名的字典序顺序从小到大。样例输入3aaa 47bbb 90ccc 70样例输出bbbcccaaa 【数据规模和约定】人数<=100,分数<=100,人名仅包含小写字母。import java.util.*; public class 成绩排名 { public static class student{ public String name; public int grade; } /** * @param args */ public static void main(String[] args) { // TODO Auto-generated method stub Scanner input = new Scanner(System.in); int n = input.nextInt(); student[] stu = new student[n]; for (int i = 0; i < stu.length; i++) { stu[i] = new student(); stu[i].name = input.next(); stu[i].grade = input.nextInt(); } for (int i = 0; i < stu.length-1; i++) { for (int j = 0; j < stu.length-1-i; j++) { if (stu[j].grade<stu[j+1].grade) { student temp = stu[j]; stu[j] = stu[j+1]; stu[j+1] = temp; }else if (stu[j].grade==stu[j+1].grade) { int k =0; while (stu[j].name.charAt(k)==stu[j+1].name.charAt(k)) { k++; if (stu[j].name.length()==k) { k--; break; } } if (stu[j].name.charAt(k)>stu[j+1].name.charAt(k)) { student temp = stu[j]; stu[j] = stu[j+1]; stu[j+1] = temp; } } } } for (int i = 0; i < stu.length; i++) { System.out.println(stu[i].name); } } }
2020年03月28日
1,163 阅读
0 评论
0 点赞
2020-03-28
试题 算法提高 双十一抢购
资源限制时间限制:1.0s 内存限制:256.0MB问题描述 一年一度的双十一又来了,某网购网站又开始了半价销售的活动。 小G打算在今年的双十一里尽情地购物,以享受购买的极度快感,她已经列好了她想买的物品的列表。 当然小G并不是出身富贵家庭,所以她网银里的钱只是一个有限的整数S(单位:元)。 这次抢购她打算遵循这三个原则选择每一个物品: 1.先买能“赚”最多的; 2.在“赚”一样多的情况下,先买最便宜的(这样买的东西就可能更多了); 3.在前两条里都判断不了购买顺序的话,先购买在列表里靠前的。 (由于网站里还是有一部分商品并没有打五折,所以2的情况(“赚”的钱数为0)是完全可能发生的) 现在,在双十一的这一天,你要帮小G编写一个程序,来看看她应该去买她列表里的哪些物品。(总价格不要超过S哦) 要是帮她写好这个程序的话,或许你能在光棍节这一天里赢得她的芳心哦~输入格式 输入共N+1行。 第一行包含两个整数S和N,S表示小G的可用金额,N表示她看上的物品个数。 接下来N行,对应每一个物品,每行有两个整数a和b,a是物品的原价(单位:元),b为0或1,若b为0,则此物品不半价,若b为1,则此物品半价销售。输出格式 输出共一行,为小G要买的物品序号(从1开始),用空格隔开,注意按序号从小到大输出。 若小G一件都买不了,则输出0.样例输入10 35 04 010 1样例输出2 3样例输入10 311 021 1100 1样例输出0数据规模和约定 0<S<=10000,0<N<=1000,每一个a和b满足0<a<=1000且b=0或1。import java.util.*; public class 双十一抢购 { public static class goods { public int num; public double price; public int off; } public static void main(String[] args) { // TODO Auto-generated method stub Scanner input = new Scanner(System.in); double money = input.nextDouble(); int Nums = input.nextInt(); goods[] lists = new goods[Nums]; for (int i = 0; i < lists.length; i++) { lists[i] = new goods(); lists[i].price = input.nextDouble(); lists[i].off = input.nextInt(); lists[i].num = i + 1; } for (int i = 0; i < lists.length; i++) { for (int j = i; j < lists.length; j++) { if (lists[i].off * lists[i].price < lists[j].off * lists[j].price) { goods temp = lists[j]; lists[j] = lists[i]; lists[i] = temp; } else if (lists[i].off * lists[i].price == lists[j].off * lists[j].price) { if (lists[i].price > lists[j].price) { goods temp = lists[j]; lists[j] = lists[i]; lists[i] = temp; } else if (lists[i].price == lists[j].price) { if (lists[i].num > lists[j].num) { goods temp = lists[j]; lists[j] = lists[i]; lists[i] = temp; } } } } } List<Integer> result = new ArrayList<Integer>(); int success =0; for (goods goods : lists) { double price =goods.price-goods.off*0.5*goods.price; if (price<=money) { money-=price; success++; result.add(goods.num); } } if (success==0) { System.out.println("0"); }else { Collections.sort(result); for (Integer integer : result) { System.out.print(integer+" "); } } } }思路来源:generous~
2020年03月28日
1,042 阅读
0 评论
0 点赞
2020-03-28
python调用JS方法
接口测试过程中遇到了DES加密的问题,用PYTHON研究了好久都没成功,最后找前端要了des加密的js方法,于是就研究了一下操作步骤如下1、先安装 也可以PIP安装安装后代码如下import execjs def get_des_psswd(data, key): jsstr = get_js() ctx = execjs.compile(jsstr) #加载JS文件 return (ctx.call('strEnc', data, key)) #调用js方法 第一个参数是JS的方法名,后面的data和key是js方法的参数 def get_js(): f = open("./../lib/des.js", 'r', encoding='utf-8') # 打开JS文件 line = f.readline() htmlstr = '' while line: htmlstr = htmlstr+line line = f.readline() return htmlstr if __name__ == '__main__': print(get_des_psswd('123456', 'RUY2OTdCRUFFRTg0OUQ0Q0E0ODNDRDMxN0YzOEEzREQudG9tY2F0OTQ='))
2020年03月28日
1,043 阅读
0 评论
0 点赞
2020-03-27
【爬虫】python爬取MSDN站所有P2P下载链接
今日,msdn的新网站开放注册,然后体验了一波,发现要强制观看30S的广告才可以下载,因此就想提前把资源爬取下来以便后用。先来看下成果:1,网站分析1.1通过直接爬取:https://msdn.itellyou.cn/,可以获得8个ID,对应着侧边栏的八个分类1.2没展开一个分类,会发送一个POST请求传递的就是之前获取的8个ID之一1.3查看这个请求的返回值,可以看到又获得一个ID,以及对应的资源名称。1.4点击,展开一个资源可以发现,又多了两个POST请求1.4.1第一个GETLang,经分析大概意思就是,获取资源的语言,然后这个请求也发送了一个ID,然后在返回值中又获得一个ID,这就是后文中的lang值1.4.2第二个GetList,这个传递了三个参数:(1)ID:经对比可发现这个ID就是我们之前一直在用的ID。(2)lang,我后来才发现是language的缩写,就是语言的意思,我们从第一个GetLang的返回值可以获取,这个lang值。(3)filter,翻译成中文就是过滤器的意思,对应图片坐下角的红色框框内是否勾选。1.4.3到这里就以及在返回值中获得了下载地址了:综上就是分析过程。然后就开始敲代码了2,为了追求速度,选择了Scrapy框架。然后代码自己看吧。爬虫.py:# -*- coding: utf-8 -*- import json import scrapy from msdn.items import MsdnItem class MsdndownSpider(scrapy.Spider): name = 'msdndown' allowed_domains = ['msdn.itellyou.cn'] start_urls = ['http://msdn.itellyou.cn/'] def parse(self, response): self.index = [i for i in response.xpath('//h4[@class="panel-title"]/a/@data-menuid').extract()] # self.index_title = [i for i in response.xpath('//h4[@class="panel-title"]/a/text()').extract()] url = 'https://msdn.itellyou.cn/Category/Index' for i in self.index: yield scrapy.FormRequest(url=url, formdata={'id': i}, dont_filter=True, callback=self.Get_Lang, meta={'id': i}) def Get_Lang(self, response): id_info = json.loads(response.text) url = 'https://msdn.itellyou.cn/Category/GetLang' for i in id_info: # 遍历软件列表 lang = i['id'] # 软件ID title = i['name'] # 软件名 # 进行下一次爬取,根据lang(语言)id获取软件语言ID列表 yield scrapy.FormRequest(url=url, formdata={'id': lang}, dont_filter=True, callback=self.Get_List, meta={'id': lang, 'title': title}) def Get_List(self, response): lang = json.loads(response.text)['result'] id = response.meta['id'] title = response.meta['title'] url = 'https://msdn.itellyou.cn/Category/GetList' # 如果语言为空则跳过,否则进行下次爬取下载地址 if len(lang) != 0: # 遍历语言列表ID for i in lang: data = { 'id': id, 'lang': i['id'], 'filter': 'true' } yield scrapy.FormRequest(url=url, formdata=data, dont_filter=True, callback=self.Get_Down, meta={'name': title, 'lang': i['lang']}) else: pass def Get_Down(self, response): response_json = json.loads(response.text)['result'] item = MsdnItem() for i in response_json: item['name'] = i['name'] item['url'] = i['url'] print(i['name'] + "--------------" + i['url']) # 测试输出,为了运行时不太无聊 return itemitems.py:# -*- coding: utf-8 -*- # Define here the models for your scraped items # # See documentation in: # https://docs.scrapy.org/en/latest/topics/items.html import scrapy class MsdnItem(scrapy.Item): # define the fields for your item here like: name = scrapy.Field() url = scrapy.Field()settings.py:# -*- coding: utf-8 -*- # Scrapy settings for msdn project # # For simplicity, this file contains only settings considered important or # commonly used. You can find more settings consulting the documentation: # # https://docs.scrapy.org/en/latest/topics/settings.html # https://docs.scrapy.org/en/latest/topics/downloader-middleware.html # https://docs.scrapy.org/en/latest/topics/spider-middleware.html BOT_NAME = 'msdn' SPIDER_MODULES = ['msdn.spiders'] NEWSPIDER_MODULE = 'msdn.spiders' # Crawl responsibly by identifying yourself (and your website) on the user-agent # USER_AGENT = 'msdn (+http://www.yourdomain.com)' # Obey robots.txt rules ROBOTSTXT_OBEY = False # Configure maximum concurrent requests performed by Scrapy (default: 16) # CONCURRENT_REQUESTS = 32 # Configure a delay for requests for the same website (default: 0) # See https://docs.scrapy.org/en/latest/topics/settings.html#download-delay # See also autothrottle settings and docs DOWNLOAD_DELAY = 0.1 # The download delay setting will honor only one of: # CONCURRENT_REQUESTS_PER_DOMAIN = 16 # CONCURRENT_REQUESTS_PER_IP = 16 # Disable cookies (enabled by default) # COOKIES_ENABLED = False # Disable Telnet Console (enabled by default) # TELNETCONSOLE_ENABLED = False # Override the default request headers: DEFAULT_REQUEST_HEADERS = { 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8', 'Accept-Language': 'en', 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.149 Safari/537.36' } # Enable or disable spider middlewares # See https://docs.scrapy.org/en/latest/topics/spider-middleware.html # SPIDER_MIDDLEWARES = { # 'msdn.middlewares.MsdnSpiderMiddleware': 543, # } # Enable or disable downloader middlewares # See https://docs.scrapy.org/en/latest/topics/downloader-middleware.html # DOWNLOADER_MIDDLEWARES = { # 'msdn.middlewares.MsdnDownloaderMiddleware': 543, # } # Enable or disable extensions # See https://docs.scrapy.org/en/latest/topics/extensions.html # EXTENSIONS = { # 'scrapy.extensions.telnet.TelnetConsole': None, # } # Configure item pipelines # See https://docs.scrapy.org/en/latest/topics/item-pipeline.html ITEM_PIPELINES = { 'msdn.pipelines.MsdnPipeline': 300, } # Enable and configure the AutoThrottle extension (disabled by default) # See https://docs.scrapy.org/en/latest/topics/autothrottle.html # AUTOTHROTTLE_ENABLED = True # The initial download delay # AUTOTHROTTLE_START_DELAY = 5 # The maximum download delay to be set in case of high latencies # AUTOTHROTTLE_MAX_DELAY = 60 # The average number of requests Scrapy should be sending in parallel to # each remote server # AUTOTHROTTLE_TARGET_CONCURRENCY = 1.0 # Enable showing throttling stats for every response received: # AUTOTHROTTLE_DEBUG = False # Enable and configure HTTP caching (disabled by default) # See https://docs.scrapy.org/en/latest/topics/downloader-middleware.html#httpcache-middleware-settings # HTTPCACHE_ENABLED = True # HTTPCACHE_EXPIRATION_SECS = 0 # HTTPCACHE_DIR = 'httpcache' # HTTPCACHE_IGNORE_HTTP_CODES = [] # HTTPCACHE_STORAGE = 'scrapy.extensions.httpcache.FilesystemCacheStorage'pipelines.py:# -*- coding: utf-8 -*- # Define your item pipelines here # # Don't forget to add your pipeline to the ITEM_PIPELINES setting # See: https://docs.scrapy.org/en/latest/topics/item-pipeline.html class MsdnPipeline(object): def __init__(self): self.file = open('msdnc.csv', 'a+', encoding='utf8') def process_item(self, item, spider): title = item['name'] url = item['url'] self.file.write(title + '*' + url + ' ') def down_item(self, item, spider): self.file.close()main.py(启动文件):from scrapy.cmdline import execute execute(['scrapy', 'crawl', 'msdndown'])3,成品打包地址点击进入:csdn密码:lan666|大小:60kb已经过安全软件检测无毒,请您放心下载。
2020年03月27日
1,696 阅读
2 评论
0 点赞
2020-03-26
试题 算法提高 不同单词个数统计
资源限制时间限制:1.0s 内存限制:512.0MB问题描述 编写一个程序,输入一个句子,然后统计出这个句子当中不同的单词个数。例如:对于句子“one little two little three little boys”,总共有5个不同的单词:one, little, two, three, boys。 说明:(1)由于句子当中包含有空格,所以应该用gets函数来输入这个句子;(2)输入的句子当中只包含英文字符和空格,单词之间用一个空格隔开;(3)不用考虑单词的大小写,假设输入的都是小写字符;(4)句子长度不超过100个字符。 输入格式:输入只有一行,即一个英文句子。 输出格式:输出只有一行,是一个整数,表示句子中不同单词的个数。输入输出样例样例输入one little two little three little boys样例输出5提交代码import java.util.*; public class 不同单词个数统计 { /** * @param args */ public static void main(String[] args) { // TODO Auto-generated method stub Scanner sc = new Scanner(System.in); String x = sc.nextLine(); //将字符串根据空格分隔成字符串数组 String[] str = x.split(" "); //创建一个列表,用来储存结果 List<String> result = new ArrayList<String>(); for (int i = 0; i < str.length; i++) { //如果结果列表中不包含str[i]则加到结果列表 if (!result.contains(str[i])) { result.add(str[i]); } } //输出结果列表大小 System.out.println(result.size()); } }
2020年03月26日
1,169 阅读
0 评论
0 点赞
2020-03-26
试题 算法提高 11-2删除重复元素
资源限制时间限制:10.0s 内存限制:256.0MB问题描述 为库设计新函数DelPack,删除输入字符串中所有的重复元素。不连续的重复元素也要删除。 要求写成函数,函数内部使用指针操作。样例输入1223445667889样例输出13579样例输入else样例输出ls数据规模和约定 字符串数组最大长度为100。import java.util.*; public class 删除重复元素 { /** * @param args */ public static void main(String[] args) { // TODO Auto-generated method stub Scanner sc = new Scanner(System.in); String x = sc.next(); StringBuilder result = new StringBuilder(); for (int i = 0; i < x.length(); i++) { char a = x.charAt(i); boolean flag = true; for (int j = 0; j < x.length(); j++) { char b = x.charAt(j); if (j==i) { continue; } if (a==b) { flag=false; break; } } if (flag) { result.append(a); } } System.out.println(result.toString()); } }
2020年03月26日
1,065 阅读
0 评论
0 点赞
2020-03-26
Eclipse设置代码提示
点击window,点击Preferences双击箭头所示位置将这里的“.”更改为.abcdefghijklmnopqrstuvwxyz 这个的意思就是输入键盘上的每一个字母都会提示代码,本来只有一个点,只有输入点的时候才会提示
2020年03月26日
950 阅读
0 评论
0 点赞
1
...
54
55
56
...
64