ドロップシッピングCSV流し込み開設に向けて。WEB知識のある業界の方オススメします!

20180706

Logging


ドロップシッピングCSV流し込みの過程。
ドロップシッピングからCSVをダウンロード、
その後、ヘッダー部分の削除を行い、CSVを10000行単位で
分割する。リナックスのコマンドで行いましたが
PowerShellやフリーソフトでも分離は可能です。
次にDBへ登録を行うプログラミングをPHP言語で記述し
コマンドラインからPHPファイルを叩く。コマンドラインで叩くほうが
処理が早いのでこちらを選びましたが、ブラウザから送信ボタンを押したときに
非同期処理(ajax)を走らせて行う方法もあります。
自分が登録したドロップシッピングのCSV容量は
850MBでした、まぁまぁ多いファイルです、これを一行単位で取り込んで
行くのですが、、、、かなり時間がかかります。
取り込み終わるのに数時間かかりました。
最初、一括CSVで取り込めないかなと思っていろいろ試しましたが515円のサーバでは
無理でしたので、10000処理を行ったら一度、PHPを終了させ
再度、開き次のファイルをパラメーター付きで実行させるシェルスクリプトを
作りました。そちらを叩いて後は終了するまで待つという方法です。
登録したDBから商品の一覧や詳細画面、カテゴリー一覧、
トップページを作らないといけないという作業が残っています。
こちら会社でも使っているSmartyで当初思ったのですが
やめてPHPテンプレートエンジン「Twig」を使用して作ることに決めました。
ここまで来て思ったのは会社での事がかなり役に立つという事です。
ノウハウがあるのとないのとはぜんぜん違うなと思います。
ドロップシッピングが軌道に乗るのかはわかりませんが、
サイトを作るというのは楽しいですね。
ちなみにドロップシッピングのURLは非公開とさせていただきます。
https://youtu.be/rrvL2-jqZ-4

タグ

CSV容量, PHPテンプレートエンジン, powershell, Smarty, Twig, コマンドライン, サーバ, シェルスクリプト, ドロップシッピングCSV流し込み, ドロップシッピングCSV流し込み開設, パラメーター付き, ブラウザ, フリーソフト, プログラミング, ヘッダー部分, リナックス, 一括CSV, 一行単位,


ドロップシッピングという副業を妄想してみた。

20180704

Logging


ドロップシッピングという副業を妄想してみた。
ドロップシッピングとは在庫を持たなくてネットショップを開業することの
出来る仕組みの事を指す。
簡単に言えばアフェリエイトとの最終形態みたいなものです。
商品が売れると5%?20%の収益が発生します。

 
ここで思ったのが売れるのか?
ぐぐると売れないという声が多数聞くのですが
もしもドロップシッピングとかAPI機能があり、これをうまく
使用すれば稼げるじゃないかなと思い始めています。
Twitterのフォロワーが1000ぐらいあれば
なんとかなりそうな気がします。
https://www.moshimo.com/guest/help/detail?id=104
SNSを駆使してサイトへ誘導することは可能だと思います。
ちなみにフォロワーは購入することが出来てしまうのでそこから
TwitterAPIなどでRTなどで何とかすればなんとかなるかも。
問題点はサイトのデザインだと思います、
どれぐらい信用のできるサイトを作るのかというのが
一番の大事なのかなと思っています。
トイウコトデ、このサイトとは別に
独立してドロップシッピングサイトを構築してみようかなと
思っています。
うまく行かなくても月に1000円ぐらいは収益でると思います。
※広告宣伝費を個人がおこなうと、ガンガン無くなりますのでTwitterで
なんとかしようと思います、儲けがでたら広告も出そうかな。
夢は広がります・・・・妄想してみた。
http://www.moshimo.com/pdf/moshimo_api.pdf
https://www.moshimo.com/

タグ

API機能, from Moshimo, from Moshimo_co, TwitterAPI, アフェリエイト, トイウコトデ, どれぐらい信用, ドロップシッピング, ドロップシッピングサイト, フォロワー, 仕組み, 儲け, 副業, 副業入門, 収益, 問題点, 広告宣伝費, 最終形態,


逃げるは恥だが役に立つグーグル画像検索ダウンロードコンソールアプリ

20180703

Logging


グーグル画像検索ダウンロードコンソールアプリを作ってみました。
へっぽこソースはこちら

using System;
using System.Text.RegularExpressions;
using System.Collections.Generic;
using System.Linq;
using System.Text;
using System.Threading.Tasks;
using System.Net;
using System.IO;
namespace google_img_get
{
    class Program
    {
        static void Main(string[] args)
        {
            gurl();
        }
        static void gurl() {
            string url = "https://www.google.co.jp/search?tbm=isch&biw=1920&bih=957";
            string htmlSource = "";
            Boolean flg = true;
            try
            {
                //コマンドライン引数を配列で取得する
                string[] cmds = System.Environment.GetCommandLineArgs();
                if (cmds.Length == 2)
                {
                    url = url + "&q=" + cmds[1] + "&oq=" + cmds[1];
                    flg = false;
                }
                if (flg)
                {
                    Console.ForegroundColor = ConsoleColor.Cyan;
                    Console.WriteLine("***** google画像検索&ダウンロード少しw キーワードを入力してください *****");
                    Console.ForegroundColor = ConsoleColor.White;
                    string hoge= Console.ReadLine();
                    url = url + "&q=" + hoge + "&oq=" + hoge;
                 }
                if (url != "")
                {
                    Console.WriteLine("***** google check *****");
                    htmlSource = gsource(url);
                    Console.WriteLine(htmlSource);
                    string img = "\"ou\":\"(?<text>https?.*?)\"";
                    Regex reimg = new Regex(img, RegexOptions.IgnoreCase | RegexOptions.Singleline);
                    for (Match m = reimg.Match(htmlSource); m.Success; m = m.NextMatch())
                    {
                        char[] cc = { '"', '\'' };
                        string u = m.Groups["text"].Value;
                        u = u.Trim(cc);
                        string[] exte = u.Split('.');
                        string gexte = "";
                        if (Regex.IsMatch(exte[exte.Length - 1].ToLowerInvariant(),"jpge")) {
                            gexte = "jpg";
                        }
                        if (Regex.IsMatch(exte[exte.Length - 1].ToLowerInvariant(), "jpg"))
                        {
                            gexte = "jpg";
                        }
                        if (Regex.IsMatch(exte[exte.Length - 1].ToLowerInvariant(), "gif"))
                        {
                            gexte = "gif";
                        }
                        if (Regex.IsMatch(exte[exte.Length - 1].ToLowerInvariant(), "png"))
                        {
                            gexte = "png";
                        }
                        Console.ForegroundColor = ConsoleColor.DarkGreen;
                        Console.WriteLine("***** " + u + " *****");
                        if (gexte != "")
                        {
                            int ihoge = new Random(100).Next(100) * 100;
                            Console.WriteLine(media(u, gexte));
                            System.Threading.Thread.Sleep(ihoge);
                        }
                    }
                }
                gurl();
            }
            catch (Exception e)
            {
                Console.ForegroundColor = ConsoleColor.Red;
                Console.WriteLine("***** " + e.Message + " *****");
                gurl();
            }
        }
        static string gsource(string url) {
            string htmlSource = "";
            WebClient client = new WebClient();
            client.Headers.Add("User-Agent", "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36");
            Stream st = client.OpenRead(url);
            Encoding enc = Encoding.GetEncoding("UTF-8");
            StreamReader sr = new StreamReader(st, enc);
            htmlSource = sr.ReadToEnd();
            sr.Close();
            st.Close();
            client.Dispose();
            return htmlSource;
        }
        static string media(string url, string exte)
        {
            // カレントディレクトリを取得する
            string nowstr = DateTime.Now.ToString("yyyyMMddHHmmss");
            string stCurrentDir = Directory.GetCurrentDirectory();
            WebClient wc = new WebClient();
            wc.Headers.Add("User-Agent", "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36");
            @wc.DownloadFile(url, @stCurrentDir + "\\webcmd" + nowstr + "." + exte);
            wc.Dispose();
            return "***** " + "Success!! [webcmd" + nowstr + "." + exte + "] *****";
        }
    }
}

 
コンソールアプリ軽量で動作が機敏なので良いかなと
これを使用していているとリモートサーバーから怒られることが
あるのでお気をつけください。リモートサーバー=プロバイダと認識しています。
あまりにも立て続けにダウンロードしていると400エラーになり
処理が途中で中断してしまいます。
何故、そうなるのかはお察しください。
https://www.youtube.com/watch?v=_CuVYooExZ4
回避策のため、ランダムタイマーで一旦処理を停止しながら
ダウンロードを行っているので微妙に遅い。
これを改良してもっとより良いものを
作ってくれる有志が入れば有り難いです、GitHubにも
公開していますので改良してもらうと有り難いです。
その他、コンソールアプリの詰め合わせzipを置いときますので
ご自由にご使用いただければと思っています。
法的にまずい使い方は行わないでください。
https://zip358.com/tool/web.zip
 

タグ

AM, array,


自動運転車が普及したら車を買う必要ないのかも

20180701

Logging


https://easy-ride.com/
自動運転車が普及したら車を買う必要ないのかもしれない。
自分は自動運転車のサービスが始まったら、車はいらないと思う派です。
おそらく完全自動運転車はあと数十年後には一般道で走り出すと思います。
それはこの日本でも当たり前になるのではないかな。
日産はDeNAと組み頑張っていますし、
トヨタやホンダも完全自動運転車に向けて取り組んでいます。
https://www.youtube.com/watch?v=QjPUnAt3PSA
自動運転車は地方の救世主になるのかもしれない。
特に高齢者の刀狩り(車)あった人々にとっては本当に
救世主の他ならないだろう。毎月、車のローンを支払うぐらいの
金額でも使う人はかなりの数でいるのでは?
 
ちなみにグーグルは完全自動運転車(Waymo[ウェイモ])を作っているみたいです。
コレから先、完全自動運転車が街中を走り出し
みんなの行動パターンという個人情報を吸い出すことでしょう。
それはビックデータでもかなりの価値のあるデータだと。

Early Rider Moments: “There from the Start”

これから先、間違いなく配車サービスのビックウェーブは
くると思います、それは日本でも同じことなんではないかと、
タクシーは自動運転車へシフトしていくと思います。
ただ人が運転するタクシーも生き残ると思いますが
数は減っていくと思っています、これは電子書籍と同じことだろうと。
アプリを使い自動運転車を呼び、
必要なときだけ車を使用する人々と完全自動運転車を購入し
乗る人、今までの自動車を乗る人々になるのではないかな。
自動運転車の配車サービスが全国各地で始まったら
間違いなく、人が運転する車の価格は下るだろうと思います。
また電気自動車の割合も急速に増えていくように思えます。
何れにせよ、今後10年で自動運転車や5G通信などの技術で
世の中、大きく変わると思います。

タグ

B06WP2F4XP, waymo, ウェイモ, グーグル, タクシー, ビックウェーブ, ビックデータ, ホンダ, マイナビ新書, ローン, 一般道, 人々, 刀狩り, 完全自動運転車, 救世主, 配車サービス, 電気自動車, 高齢者,